JP2016119110A - ストレージシステム及びリソース割当て方法 - Google Patents
ストレージシステム及びリソース割当て方法 Download PDFInfo
- Publication number
- JP2016119110A JP2016119110A JP2016008615A JP2016008615A JP2016119110A JP 2016119110 A JP2016119110 A JP 2016119110A JP 2016008615 A JP2016008615 A JP 2016008615A JP 2016008615 A JP2016008615 A JP 2016008615A JP 2016119110 A JP2016119110 A JP 2016119110A
- Authority
- JP
- Japan
- Prior art keywords
- block storage
- hypervisor
- resource
- management table
- hardware
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
ストレージ装置は、複数のハードディスクをRAID(Redundant Array of Independent/Inexpensive Disks)方式で管理する。そして、多数のハードディスクが有する物理的な記憶領域を論理化し、これを論理ボリュームとしてホスト計算機に提供する。ホスト計算機は論理ボリュームにアクセスしてデータのリード・ライトを要求する。
また、ネットワークに接続されファイルアクセスを受け付けるストレージ装置(例えば、NAS)が有するハードウェアリソースを、論理的に分割して個々の論理区画(仮想的な記憶装置)を独立して動作させる技術も知られている(特許文献1)
そこで、ブロックストレージ装置の高性能なメリットを活かすストレージシステム及びそのリソース割当て方法を提供することを課題とする。
そして、複数のOSが1つの筐体内に共存するシステムであるため、複数OSが協調して動作できるストレージ装置を提供する。
また、ハイエンドストレージ装置の高機能を活かしたユニファイドストレージシステムを実現するために、ハイエンドストレージ装置が動作するために必要な分のCPUやメモリなどを割り当てる必要がある。そこで、ハイエンドストレージ装置側の性能を発揮できるようなハードウェアリソース定義(割当て)の仕方を提供する。
ブロックストレージマイクロ制御とハイパバイザの処理を協調して動作させる。
データを格納するストレージ装置はハイエンドストレージ装置を構成し、ブロックストレージマイクロ制御が処理を行う。
ブロックストレージマイクロの制御に先にリソースを割り当てるため、ブロックストレージマイクロ制御側の性能を確保できる。これは即ち装置全体の性能を確保することとなる。ブロックストレージマイクロ制御側の処理及び機能の能力を有効に活用できる。
なお、以後の説明では「テーブル」という表現にて本発明の情報を説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくてもよい。例えば、「リスト」、「DB(データベース)」、「キュー」等のデータ構造やそれ以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために、「テーブル」、「リスト」、「DB」、「キュー」等については、単に「情報」と呼ぶこともできる。また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。
ハードウェアリソースには、例えば、制御プロセッサ(CPU)、ポート、障害監視用のハード、メモリ、記憶装置であるハードディクスなどのディスクがある。
説明では、ブロックインターフェースによってサービスを提供するものの例として、ブロックストレージマイクロ制御を示し、ファイルインターフェースによってサービスを提供するものの例として、ファイルシステム、検索システム、広くはWindowsなどを示す。ファイルインターフェースによってサービスを提供するものは、仮想化プログラム即ちハイパバイザ上で動作するものを示す。
クライアント機器である101A、101B、少なくとも1つの管理装置(管理計算機)20、および、これらが接続される少なくとも1つのストレージ装置30を有している。なお、ストレージ装置30は、ストレージシステム、ストレージサブシステム、あるいはユニファイドストレージシステムと言うこともできる。
クライアント機器101Aは、ブロックインターフェースであるFC(Fibre Channel)やiSCSIを持つサーバ機器である場合もある。クライアント機器101Bは、ファイルインターフェースであるNFSやCIFSを持つ機器である場合もある。
入力デバイス210は、管理装置20を操作する管理者等からの入力を受け付け、例えばキーボード等で構成される。出力デバイス220は、管理装置20の状態や設定項目を表示し、例えば、ディスプレイ装置等で構成される。
ストレージ装置30は、その内部に、少なくとも1つの制御プロセッサ、メモリ、物理デバイス34を有し、より具体的には、制御プロセッサである中央処理装置(CPU: Central Processing Unit)31、メモリ32、ディスクインターフェース33、FCインターフェースであるHBA(Host Bus adaptor)35(HBAターゲットであり、ホストアダプタとも言う)、LANインターフェースであるNIC(Network Card)36を備えている。
ディスクインターフェース33は、物理デバイス34とメモリ32等との間でデータを送受信する。
クライアント機器101A及び101Bは、管理ネットワーク108を介して管理装置20との間でシステム管理上必要なデータ(管理情報)を送受信する。
プログラムは、メモリ32の他、物理デバイス34に格納されていてもよい。
別の実施例では、ストレージ装置30内に、コントローラボード41を2枚搭載している。コントローラボード41A内に搭載された制御プロセッサ31Aは、コントローラボード41B内に搭載された制御プロセッサ31Bとライン42により接続されている。ライン42は、例えば、専用線のバスやスイッチなどの接続機構である。例えば、このライン42を介して制御プロセッサ31Aから制御プロセッサ31Bを経て相手方メモリ32Bをアクセスすることを可能とする。
クラスタ50は、コントローラボード41、ホスト側インターフェースであるHBA35、NIC36、ディスクインターフェース33、保守管理インターフェースであるNIC39を含む。
クラスタ50Aのブロックストレージマイクロ制御以外のハイパバイザ上で動作させるOSとクラスタ50Bのブロックストレージマイクロ制御以外のハイパバイザ上で動作させるOSでは通常のクラスタサーバ構成を組む。例えば、ファイルシステムを使用するOSであるFOSの場合、クラスタ50AのあるFOSとクラスタ50BのあるFOSで予めクラスタ構成を組み、正クラスタ50A内のFOSと副クラスタ50B内のFOSが例えば、ハートビートなどの手段によって、一定期間単位に常に相手が正常に稼働していることを確認する。正クラスタ50A側のファイルシステムに障害が発生したことを副クラスタ50B側のFOSが検知した場合、クラスタ50AのFOSが障害をクラスタ50Bが判断して、クラスタ50BのFOSがクラスタ50AのFOSの処理を肩代わりして稼働し続けるフェイルオーバ処理を実現する。このような構成をとることでシステム全体の信頼性を向上している。
ブロックストレージマイクロ制御314は、クラスタ50Aとクラスタ50Bにまたがり1つの共通した制御として動作する。即ち、1つの制御情報を参照してクラスタ50Aのプロセッサとクラスタ50Bのプロセッサが動作する。
さらなるバリエーションとして、ライン42は、制御プロセッサ31Aと制御プロセッサ31B上のブロックストレージマイクロ制御314同士でのみ通信が可能であり、ブロックストレージマイクロ制御314Aが使用するメモリ31Aとブロックストレージマイクロ制御314Bが使用するメモリ32Bはブロックストレージマイクロ制御314Aとブロックストレージマイクロ制御314Bの間で共有され、メモリ31Aとメモリ31Bの内容は同じであってもよい。
ユニファイドストレージシステム30Aは、外部接続機能を備える。第2のストレージ装置30Bは、この機能によってユニファイドストレージシステム30Aに外部接続されている。外部接続機能は、特許第4704659号明細書に記載がある。
各OS及びブロックストレージマイクロ制御部は、制御プロセッサであるCPUのコア上で動作する。実際には、OSはプログラムであるためメモリ上に置かれ、CPUがそれを読み込んで動作するが、説明上、コアの上に各OSを記載している。CPU1枚のパッケージにコアは通常複数個あり、障害などに対応するための冗長性をもたせるため、パッケージは2枚単位で増減する。つまり、最小構成におけるパッケージ数は2枚である。プロセッサコアの使い方として、同じパッケージに同種類のOSを集中させても、物理的なパッケージに分割できるように分散してもよい。性能や可用性のうち、何を優先するかで設計できる。
または、ハイパバイザを特定のコア上で動作させてもよい。
コマンド制御プログラムは、クライアント機器101、又は管理装置20からのコマンドを解釈し、そのコマンドに規定された処理を実行する。構成制御プログラムは、ストレージ装置30の構成の設定、更新等の処理を実現する。ディスクI/Oプログラムは、物理デバイス34へのアクセスを制御する。
ブロックストレージ側のハードディスクを使用する際、FOSのI/Oかブロックかを区別して格納場所を決めてもよい。
ブロッククライアント機器101Aが、ライト要求をHBA35の#0のポートであるP#1へ出す(S610)。以降の処理は、制御プロセッサ31内のブロックストレージマイクロ制御314B部(プロセッサボード内の1つのコア)が実行する。制御プロセッサ31には、他にもFOSなどのブロックストレージ以外のOSが搭載されているが実行に関与しない。ブロックストレージマイクロ制御がコマンドの種類を認識する。ライトであればS612へすすみ、リードであればS642へ進む(S611)。
ヒットミス(ライト対象アドレスに対してキャッシュメモリが確保されていない)と判定されれば(S617でNoの場合)、コマンド制御プログラムは、ライトデータを格納するためのキャッシュメモリ領域を確保する(S618)。
コマンド制御プログラムが、ブロッククライアント機器101Aから転送データを受領すると、データを確保したキャッシュメモリに格納し(S624)、ライト完了報告をブロッククライアント機器101Aに送信する(S626)。
コマンド受け取りまではライト処理と同様である。
ブロッククライアント機器101Aがリード要求を出す。S644からS648の処理は、先のS612からS616までの処理と同じである。
コマンド制御プログラムは、LU−論理デバイス−仮想デバイスアドレス変換を行い、リード対象アドレスのデータがキャッシュメモリ上にあるか否かのヒットミス判定を行う(S650)。
ファイルクライアント機器101Bが、ライト要求をポートに対して出す(S710)。図の例では、NIC36の#0のポートP#2へ出す。FOS311Aがコマンドの種類を認識する。ライトであれはS712へすすみ、リードであればS752へ進む(S711)。要求の形態はファイルシステムへのライトなどがあり、または、ディレク
トリ情報の形態での要求となる。
ライトデータを格納するバッファエリアをメモリ322のFOS領域から確保する(S714)。確保できれば、ファイルクライアント機器101Bへ確保できたことを報告する(S716)。報告を受けたファイルクライアント機器101BはライトデータをFOSへ転送する(S718)。
指示を受けたFOS側は、自らの領域のメモリ内に格納していればそのデータをブロック側メモリへコピーし、なければファイルクライアント機器からライトデータを送信してもらう。
S738以下の処理は、図15のS630以降の処理と同様である。
コマンドの受け取りまではライト処理と同様である。
ファイルクライアント機器101Bがリード要求を出す。S754からS764の処理は、先のS712からS724までの処理と同じである。
コマンド制御プログラムは、LU―論理デバイス−仮想デバイスアドレス変換を行い(S764)、リード対象アドレスのデータがキャッシュメモリ上にあるか否か、ヒットミス判定を行う(S766)。
コマンド制御プログラムは、メディアアクセスプログラムからの通知を受領すると、キャッシュ上のデータをFOSに転送し(S776)、完了報告をする(S780)。
この情報により、ハードウェアごとに稼働中か障害閉塞中かの状態、そのハードウェアを使用しているOSまたはブロックストレージがわかる。
801Aは、ブロックストレージマイクロ制御とハイパバイザが参照するため、両方の制御が見ることができるメモリ領域へ格納する。
ハードウェアリソース管理情報801B、811Bは、ハイパバイザが持つ情報であり、ハイパバイザが使用するメモリ領域に格納される。ブロックストレージマイクロ制御がもつ、全ハードウェアの管理情報である801Aを参照し、使用状況が未定義のものだけを801B、811B(ポートは図示していない、HDDは使用しないため無し)に載せる。リソースが既に使用中である(すなわち、ブロックストレージマイクロ制御側で確保済みである)かどうかをまず登録し、その後、FOSなどの複数OSへリソース分割して割り当てた結果を格納する。リソースごとに誰が使用しているかはハイパバイザが管理する。
ハイパバイザは、FOSなどにハードウェアリソースを仮想化して見せるため、例えば、821Bに示すように、物理的には1つのCPU3を複数のCPUであるVCPU1から4にみせ、それぞれをハイパバイザの上にのるOSへ割り当てることをする。従って、後述する障害が発生し、検知した場合、物理的に障害が発生すると、どのOSへ障害の影響があるのかを調べて障害処理を行う必要がある。
913にコマンドに対して要求元を記載しておき、コマンドの処理が完了した際に、どこへ完了報告をすべきかを明確にしておく。例えば、ブロックストレージの場合、コマンド発行元と認識するのはポートとLU番号であるため、これを情報として持つ。コマンドを処理する場合、要求元まで区別してスケジュールすることもあるので、SCSIのIDやWWNをもつことで要求元を区別する。ブロック側の要求も同様に発生し、同じ要求コマンドキューへ書き込んでもよいし、別のメモリ領域に要求キューを持たせてもよい。別々の場合はキュー間で処理順序を決めるルールが必要である。コマンドが終了すれば、終了したことをブロックから報告する。
まず、ストレージ装置30の電源を入れる(S1110)。ブロックストレージマイクロ制御のみ起動する(S1112)。このように筐体内の一部だけをブートすることは本装置の特徴である。ブロックストレージマイクロ制御は、初期状態(または構成ファイルが定義されていないことを検知する状態)では、最小構成を決定する(S1114)。最小構成とはブロックストレージ側の構成のことで、例えば、2PK(パッケージ)構成であって、最大で8PK構成まで組める。このように、デフォルトで一旦は最小構成で立ち上げている。最小構成で構築する際に使用する物理的なCPUコアやメモリは予め決めておく。ここで構成を確定するために、一旦リブートする(S1115)。
メモリの確保は、メモリ空間のアドレスまたは容量を指定することにより行われる。障害等を考慮して2重化した構成で確保する。
ハードウェアリソースが追加されれば、追加されたリソースを含めてユーザが管理装置において構成ファイルを作成しなおし登録する。ブロックストレージマイクロ制御はオン中のまま、ユーザが定義した構成ファイルに従って接続するハードウェアリソースを認識する。認識しなおすトリガーは、ユーザがストレージ装置30へ指示を出してもよいし、ストレージ装置30が検出する手段を持っていてもよい。図11のフローチャートと同様に構成を定義する。原則として、追加されたハードウェアリソースを割り振る操作となり、既に使用しているリソースについては最初に割り当てたままとする。ハイパバイザ側の処理は、図11BのS1126以降から同じである。
リソース追加では、ハイパバイザがリブートをせずに、ブロックストレージマイクロ制御のトリガによってリソース追加及び使用可能情報を取得し、ゲストOSへ割り当て処理を行う箇所が従来と異なる。
削除対象となるリソースがメモリ空間の場合、削除するメモリ容量をメモリ空間のどこにするかを決定する。削除するメモリ空間に格納されているデータ及び制御情報を削除しないメモリ空間へ退避する。次処理からはコピー先のデータを使用する。図12のフローチャートと同様に、ユーザが管理装置経由にて削除したメモリ空間アドレスを構成ファイルに作成しなおし登録する。以降は図12のフローと同様の処理となる。
ディスクの削除については、ストレージシステムの従来方法と同様でよい。
前述のリソース削除処理により、ブロックストレージ側で使用しているハードウェアのうち、削除対象となるリソースの使用をやめる。削除するリソースを使用不可などの状態とし、使用できない状態にする(S1310)。ユーザが構成ファイルを作成しなおす際、削除対象となるリソースを選択しないように指定する(S1312)。例えば、使用不可のメモリアドレスを指定しないなどがある。ユーザが作成しなおした構成ファイルに従って、接続するハードウェアリソースから確保し構成を定義する(S1316)。その後、使用不可の状態にしていたハードウェアの使用状態を使用可能とする(S1318)。以降の処理は、図11BのS1126からS1136の処理と同様となる。
例えば、FOS側のファイルシステムを縮小する場合など、ハードウェア能力が余る場合、FOS側からハードウェアを解放してブロックストレージ側に割り当てなおすことができる。
ストレージ装置30内の各ハードウェアに障害が発生した場合、障害を検出するハードウェアである障害監視がそれを検出する。
(1)ブロックストレージとブロックストレージ以外(ハイパバイザとハイパバイザ上で動作するOS群)で共有されるリソース
(2)ブロックストレージで占有されるリソース
(3)ブロックストレージ以外のハイパバイザ上で動作するOS間で共有されるリソース
(4)ブロックストレージ以外のハイパバイザ上で動作するOSで占有されるリソース
30:ストレージ装置
31:制御プロセッサ(CPU)
32:メモリ
33:ディスクインターフェース
34:物理デバイス
35:HBA
36:NIC
37:バス
39:保守管理インターフェース
101:クライアント機器
106,107:ネットワーク
108:管理ネットワーク
Claims (15)
- ブロックストレージ側OSと、
該ブロックストレージ側OS以外のハイパバイザ上で動作する複数OSを含む複数システムを管理するOS群と、
前記ブロックストレージ側OSによって直接的に当該ブロックストレージ側OSに割り当てられる第1のリソース部分と、前記ハイパバイザによって論理分割を使用して前記OS群中のいずれかのOSに割り当てられる第2のリソース部分と、を含むハードウェアリソースと
から構成されることを特徴とするストレージシステム。 - 請求項1記載のストレージシステムであって、
前記第1のリソース部分は、前記ハイパバイザによる前記第2のリソース部分の割り当てに先立って優先的に割り当てられることを特徴とするストレージシステム。 - 請求項1記載のストレージシステムであって、
前記ブロックストレージ側OSと該ブロックストレージ側OS以外の前記OS群を独立に、順番にブートすることを特徴とするストレージシステム。 - 請求項1記載のストレージシステムであって、
当該ストレージシステム全体の処理は前記ブロックストレージ側OSが主導権をもって実行する
ことを特徴とするストレージシステム。 - 請求項1記載のストレージシステムであって、
前記ハードウェアリソースの構成を設定するための情報に基づいて、前記ブロックストレージ側OSに対して前記第1のリソース部分を確保するために該ブロックストレージ側OSが作成する第1の構成管理テーブルと、
前記ハイパバイザが前記OS群中のいずれかのOSに対して前記第2のリソース部分を確保するために、前記第1の構成管理テーブルに基づいて前記ハイパバイザが作成する第2の構成管理テーブルと
を有することを特徴とするストレージシステム。 - 請求項1記載のストレージシステムであって、
前記ハードウェアリソースの構成を設定するための情報に基づいて、前記ブロックストレージ側OSに対して前記第1のリソース部分を確保するために該ブロックストレージ側OSが作成する第1の構成管理テーブルと、
前記ハイパバイザが前記OS群中のいずれかのOSに対して前記第2のリソース部分を確保するために、前記ブロックストレージ側OSから前記第1のリソース部分の情報を受け取ることにより前記ハイパバイザが作成する第2の構成管理テーブルと
を有することを特徴とするストレージシステム。 - 請求項5記載のストレージシステムであって、
ハードウェアリソースを追加する時には、
前記ブロックストレージ側OSは、該追加するハードウェアリソースを認識して前記第1の構成管理テーブルを再構築して、該追加するハードウェアリソースの一部分が前記第1のリソース部分として使用される場合には該追加するハードウェアリソースの一部分を自らに対して確保し、
前記ハイパバイザは、前記第1の構成管理テーブルに基づいて第2の構成管理テーブルを再構築して、前記追加するハードウェアリソースの残り部分を前記第2のリソース部分として自らが使用する
ことを特徴とするストレージシステム。 - 請求項5記載のストレージシステムであって、
ハードウェアリソースを削除する時には、
前記ブロックストレージ側OSは、該削除するハードウェアリソースを認識して前記第1の構成管理テーブルを再構築して、該削除するハードウェアリソースを自らが確保している場合にはそれを使用不可の状態にし、
前記ハイパバイザは、前記第1の構成管理テーブルに基づいて第2の構成管理テーブルを再構築して、前記削除するハードウェアリソースを自らが確保している場合にはそれを使用不可の状態にする
ことを特徴とするストレージシステム。 - 請求項5記載のストレージシステムであって、
前記ブロックストレージ側OSが確保しているハードウェアリソースを該OS以外に動的に割り当てなおす時には、
前記ブロックストレージ側OSは、該動的に割り当てなおす対象のハードウェアリソースを使用不可の状態にして、前記第1の構成管理テーブルを再構築した後に使用可能な状態に戻し、
前記ハイパバイザは、前記第1の構成管理テーブルに基づいて第2の構成管理テーブルを再構築して、前記使用可能な状態のハードウェアリソースを確保する
ことを特徴とするストレージシステム。 - 請求項5記載のストレージシステムであって、
前記ブロックストレージ側OS以外のOS群中のいずれかのOSが確保しているハードウェアリソースを前記ブロックストレージ側OSに動的に割り当てなおす時には、
前記ハイパバイザは、前記OS群中のいずれかのOSが自ら確保していた前記ハードウェアリソースを使用不可の状態にして、前記第2の構成管理テーブルを再構築した後に使用可能な状態に戻し、
前記ブロックストレージ側OSは、前記第2の構成管理テーブルに基づいて前記第1の構成管理テーブルを再構築して、前記使用可能な状態のハードウェアリソースを確保することを特徴とするストレージシステム。 - 請求項1記載のストレージシステムであって、
前記ハードウェアリソースは、その障害発生時に、
該障害発生したハードウェアリソースが前記ブロックストレージ側OSまたは前記OS群中のいずれかのOSに占有されている場合には、該占有するOSへ該障害発生を通知し、
該障害発生したハードウェアリソースが前記ブロックストレージ側OS、前記ハイパバイザおよび前記ハイパバイザ上で動作するOS群に共有されている場合には、前記ブロックストレージ側OSへ該障害発生を通知し、
該障害発生したハードウェアリソースが前記ハイパバイザ上で動作する前記OS群中のいずれかのOS間で共有されている場合には、前記ハイパバイザへ該障害発生を通知することを特徴とするストレージシステム。 - ブロックストレージ側OSと該ブロックストレージ側OS以外のファイルシステムを含む複数システムを管理するOS群とが共存するストレージシステムにハードウェアリソースを割り当てる方法であって、
前記ブロックストレージ側OSを起動し、該OSは、前記ハードウェアリソースの設定構成情報に基づいて第1の構成管理テーブルを構築して、自らが使用するハードウェアリソースを確保する第1のステップと、
前記第1のステップの後に、前記ブロックストレージ以外のOS群を仮想化するハイパバイザを起動し、該ハイパバイザは、前記第1の構成管理テーブルに基づいて第2の構成管理テーブルを構築して、前記ブロックストレージ側OSが確保しなかったハードウェアリソースを自らが使用するハードウェアリソースとして確保する第2のステップと
を有することを特徴とするリソース割当て方法。 - 請求項12記載のリソース割当て方法であって、
ハードウェアリソースをさらに追加する時には、
前記ブロックストレージ側OSは、該追加するハードウェアリソースを認識して前記第1の構成管理テーブルを再構築して、自らが使用する場合には該追加するハードウェアリソースを確保する第3のステップと、
前記第3のステップの後に、前記ハイパバイザは、前記第1の構成管理テーブルに基づいて第2の構成管理テーブルを再構築して、前記ブロックストレージ側OSが前記追加するハードウェアリソースを確保しなかった場合には自らが使用するハードウェアリソースとして確保する第4のステップと
を有することを特徴とするリソース割当て方法。 - 請求項12記載のリソース割当て方法であって、
前記ブロックストレージ側OSが確保しているハードウェアリソースを該OS以外に動的に割り当てなおす時には、
前記ブロックストレージ側OSは、該動的に割り当てなおす対象のハードウェアリソースを使用不可の状態にし、続いて前記第1の構成管理テーブルを再構築し、その後に使用
可能な状態に戻す第5のステップと、
前記第5のステップの後に、前記ハイパバイザは、前記第1の構成管理テーブルに基づいて第2の構成管理テーブルを再構築し、続いて前記使用可能な状態のハードウェアリソースを確保する第6のステップと
を有することを特徴とするリソース割当て方法。 - 請求項12記載のリソース割当て方法であって、
前記ブロックストレージ側OS以外のOS群中のいずれかのOSが確保しているハードウェアリソースを前記ブロックストレージ側OSに動的に割り当てなおす時には、
前記ハイパバイザは、前記OS群中のいずれかのOSが自ら確保していた前記ハードウェアリソースを使用不可の状態にし、続いて前記第2の構成管理テーブルを再構築し、その後に使用可能な状態に戻す第7のステップと、
前記第7のステップの後に、前記ブロックストレージ側OSは、前記第2の構成管理テーブルに基づいて前記第1の構成管理テーブルを再構築し、続いて前記使用可能な状態のハードウェアリソースを確保する第8のステップと
を有することを特徴とするリソース割当て方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016008615A JP5937772B1 (ja) | 2016-01-20 | 2016-01-20 | ストレージシステム及びリソース割当て方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016008615A JP5937772B1 (ja) | 2016-01-20 | 2016-01-20 | ストレージシステム及びリソース割当て方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015523724A Division JP5877552B1 (ja) | 2013-01-28 | 2013-01-28 | ストレージシステム及びリソース割当て方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5937772B1 JP5937772B1 (ja) | 2016-06-22 |
JP2016119110A true JP2016119110A (ja) | 2016-06-30 |
Family
ID=56184769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016008615A Active JP5937772B1 (ja) | 2016-01-20 | 2016-01-20 | ストレージシステム及びリソース割当て方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5937772B1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080104315A1 (en) * | 2006-10-25 | 2008-05-01 | Hitachi Global Technologies Netherlands, B.V. | Techniques For Improving Hard Disk Drive Efficiency |
US20080244577A1 (en) * | 2007-03-29 | 2008-10-02 | Vmware, Inc. | Software delivery for virtual machines |
US20100058335A1 (en) * | 2008-08-28 | 2010-03-04 | Weber Bret S | Methods and systems for integrated storage and data management using a hypervisor |
JP2012014239A (ja) * | 2010-06-29 | 2012-01-19 | Hitachi Ltd | フォールトトレラントの計算機システム、複数の物理サーバとストレージ装置とに接続されるスイッチ装置、及び、サーバ同期制御方法 |
-
2016
- 2016-01-20 JP JP2016008615A patent/JP5937772B1/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080104315A1 (en) * | 2006-10-25 | 2008-05-01 | Hitachi Global Technologies Netherlands, B.V. | Techniques For Improving Hard Disk Drive Efficiency |
US20080244577A1 (en) * | 2007-03-29 | 2008-10-02 | Vmware, Inc. | Software delivery for virtual machines |
US20100058335A1 (en) * | 2008-08-28 | 2010-03-04 | Weber Bret S | Methods and systems for integrated storage and data management using a hypervisor |
JP2012014239A (ja) * | 2010-06-29 | 2012-01-19 | Hitachi Ltd | フォールトトレラントの計算機システム、複数の物理サーバとストレージ装置とに接続されるスイッチ装置、及び、サーバ同期制御方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5937772B1 (ja) | 2016-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5877552B1 (ja) | ストレージシステム及びリソース割当て方法 | |
US11663029B2 (en) | Virtual machine storage controller selection in hyperconverged infrastructure environment and storage system | |
US11314543B2 (en) | Architecture for implementing a virtualization environment and appliance | |
US8555279B2 (en) | Resource allocation for controller boards management functionalities in a storage management system with a plurality of controller boards, each controller board includes plurality of virtual machines with fixed local shared memory, fixed remote shared memory, and dynamic memory regions | |
JP5595530B2 (ja) | データ移行システム及びデータ移行方法 | |
JP5124103B2 (ja) | 計算機システム | |
US8667504B2 (en) | System and method for achieving high performance data flow among user space processes in storage system | |
US20170102874A1 (en) | Computer system | |
US9823955B2 (en) | Storage system which is capable of processing file access requests and block access requests, and which can manage failures in A and storage system failure management method having a cluster configuration | |
US11520674B2 (en) | Managing containers on a data storage system | |
US20110004708A1 (en) | Computer apparatus and path management method | |
JP2010257274A (ja) | 仮想化環境におけるストレージ管理システム及びストレージ管理方法 | |
CN105739930A (zh) | 一种存储架构及其初始化方法和数据存储方法及管理装置 | |
WO2014054070A1 (en) | Management system for managing a physical storage system, method of determining a resource migration destination of a physical storage system, and storage medium | |
JP5597266B2 (ja) | ストレージシステム | |
JP5937772B1 (ja) | ストレージシステム及びリソース割当て方法 | |
US20120016992A1 (en) | Architecture for improved cloud computing | |
JP2018101440A (ja) | 計算機システム | |
JP2023094302A (ja) | 情報処理システム及び構成管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160318 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20160318 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5937772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |