JP2009237826A - ストレージシステム及びそのボリューム管理方法 - Google Patents
ストレージシステム及びそのボリューム管理方法 Download PDFInfo
- Publication number
- JP2009237826A JP2009237826A JP2008082030A JP2008082030A JP2009237826A JP 2009237826 A JP2009237826 A JP 2009237826A JP 2008082030 A JP2008082030 A JP 2008082030A JP 2008082030 A JP2008082030 A JP 2008082030A JP 2009237826 A JP2009237826 A JP 2009237826A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- storage system
- volumes
- identifier
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007726 management method Methods 0.000 title claims description 39
- 238000000034 method Methods 0.000 claims description 60
- 230000008569 process Effects 0.000 claims description 56
- 230000007717 exclusion Effects 0.000 abstract 1
- 230000004913 activation Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 8
- 238000001994 activation Methods 0.000 description 6
- 101000713503 Homo sapiens Solute carrier family 13 member 1 Proteins 0.000 description 5
- 102100036743 Solute carrier family 13 member 1 Human genes 0.000 description 5
- 230000037430 deletion Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 101150105138 nas2 gene Proteins 0.000 description 2
- 241000204801 Muraenidae Species 0.000 description 1
- 101100513046 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) eth-1 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0632—Configuration or reconfiguration of storage systems by initialisation or re-initialisation of storage systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0611—Improving I/O performance in relation to response time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
Abstract
【課題】クラスタシステムにおいてデータ格納時に必要だった排他処理を行うために必要な情報を設定する時間及びデータ量を削減する。
【解決手段】複数のボリュームと、その複数のボリュームのうちの少なくとも1以上のボリュームをデータ処理のために利用する複数の仮想サーバとを含む、クラスタシステムを構成するストレージシステムであって、複数の仮想サーバはそれぞれ、複数のボリューム全てにアクセスでき、複数の仮想サーバがデータ処理のために利用するボリュームは、その仮想サーバに対応していることを示す情報を格納する格納部を有する。
【選択図】図19
【解決手段】複数のボリュームと、その複数のボリュームのうちの少なくとも1以上のボリュームをデータ処理のために利用する複数の仮想サーバとを含む、クラスタシステムを構成するストレージシステムであって、複数の仮想サーバはそれぞれ、複数のボリューム全てにアクセスでき、複数の仮想サーバがデータ処理のために利用するボリュームは、その仮想サーバに対応していることを示す情報を格納する格納部を有する。
【選択図】図19
Description
本発明は、ストレージシステム及びそのボリューム管理方法に関し、特に仮想サーバを動作させるクラスタシステムにおいてボリュームを管理するストレージシステム及びそのボリューム管理方法に適用しても好適なものである。
クラスタを構成するノード間ではクラスタベースの同期処理を行っている。従来では、あるサービスの設定を変更するときに全てのクラスタを構成するノード間のデータベースを同期する処理が必要となる。
つまり、仮想ファイルサーバ機能を使用するクラスタ環境では、仮想ファイルサーバが起動するために必要な設定情報は、クラスタ管理機能がもつCDB(Cluster Data Base)や全てのノードが参照可能な共有LU(Logical Unit)に保存しておく必要があった。このようにCDBや共有LUを同期させることにより、ノード間で処理を衝突させないための排他処理を行なうことが可能となっている。
なお設定情報には、例えば、仮想ファイルサーバが起動するために必要なOS(Operating System)が格納されたシステムLU、各仮想ファイルサーバが使用可能なLU、ネットワークインタフェース、IP(Internet Protocol)アドレスなどが含まれる。
Linux Failsafe Administrator's Guide. Figure 1-4(P.30) ( HYPERLINK "http://oss.sqi.com/projects/failsafe/docs/LnxFailsafe" http://oss.sqi.com/projects/failsafe/docs/LnxFailsafe AG/pdf/LnxFailsafe AG.pdf)
Linux Failsafe Administrator's Guide. Figure 1-4(P.30) ( HYPERLINK "http://oss.sqi.com/projects/failsafe/docs/LnxFailsafe" http://oss.sqi.com/projects/failsafe/docs/LnxFailsafe AG/pdf/LnxFailsafe AG.pdf)
上記従来技術では、CDBは、全てのノードに設け、設定情報の変更があったときは各CDBに格納された情報の同期をとる必要がある。しかし、このような同期処理を行う必要があるためサービスの変更があったときに、仮想ファイルサーバは、その変更された内容の同期処理が完了するまで他のサービスの変更処理を実行することができない。そのため、クラスタ環境において、ノードの数が増大すればするほどその同期処理に時間がかかり、他の処理を実行できるまでの時間が長くなってしまう。また、上記従来技術では、サービスの変更があったときに、そのサービスの変更による設定変更には関連しない他のCDBにも同期処理を行う必要がある。このため、クラスタ環境においては、ノード間で同期する情報を極力削減することが望ましい。
本発明は、以上の点を考慮してなされたもので、クラスタシステムにおいてデータ格納時に必要だった排他処理を行うために必要な情報を設定する時間及びデータ量を削減するストレージシステム及びそのボリューム管理方法を提案しようとするものである。
本発明は、複数のボリュームと、その複数のボリュームのうちの少なくとも1以上のボリュームをデータ処理のために利用する複数の仮想サーバとを含む、クラスタシステムを構成するストレージシステムであって、複数の仮想サーバはそれぞれ、複数のボリューム全てにアクセスでき、複数の仮想サーバがデータ処理のために利用するボリュームは、その仮想サーバに対応していることを示す情報を格納する格納部を有するものである。
本発明によれば、クラスタシステムにおいてデータ格納時に必要だった排他処理を行うために必要な情報を設定する時間及びデータ量を削減するストレージシステム及びそのボリューム管理方法を提案できる。
以下、本発明の各実施形態について図面を参照して説明する。なお、各実施形態は本発明を限定するものではない。
(第1の実施形態)
図1は、本発明を適用したストレージシステム1の物理的構成を示すブロック図である。図1に示すように、ストレージシステム1は、管理端末100、複数のNASクライアント10、2台のNASサーバ200,300、ストレージ装置400を含んでいる。また、複数のNASクライアント10、管理端末100、NASサーバ200,300はネットワーク2を介して接続され、NASサーバ200,300とストレージ装置400はネットワーク3を介して接続されている。
図1は、本発明を適用したストレージシステム1の物理的構成を示すブロック図である。図1に示すように、ストレージシステム1は、管理端末100、複数のNASクライアント10、2台のNASサーバ200,300、ストレージ装置400を含んでいる。また、複数のNASクライアント10、管理端末100、NASサーバ200,300はネットワーク2を介して接続され、NASサーバ200,300とストレージ装置400はネットワーク3を介して接続されている。
なお、説明を簡単にするためにストレージシステム1は2台のNASサーバ200,300を含む場合で説明するが、ストレージシステム1は3台以上のNASサーバを含むように構成しても良い。また、ストレージシステム1は1台の管理端末100を含む場合で説明するが、ストレージシステム1は各NASサーバ200,300をそれぞれ管理する複数の管理端末を含むように構成しても良い。さらに、ストレージシステム1は1台のストレージ装置400を含む場合で説明するが、ストレージシステム1は2台以上のストレージ装置を含むように構成しても良い。
NASクライアント10は、キーボード等の入力装置やディスプレイ等の表示装置を有している。ユーザは、入力装置を操作して後述する仮想ファイルサーバ(以下では、仮想NAS又はVNASと称することもある。)と接続し、仮想ファイルサーバに格納されたデータの読込や新たなデータの格納を実行する。表示装置には、ユーザが各種業務を実行する際に必要となる情報が表示される。
管理端末100は、キーボード等の入力装置やディスプレイ等の表示装置を有しているが、本発明と直接関係ないため図示を省略している。ストレージシステム1の管理者は、管理端末100の入力装置を用いてストレージシステム1の管理に必要な情報を入力する。また、管理端末100の表示装置には、管理者がストレージシステム1の管理に必要な情報を入力する際に所定の情報が表示される。
NASサーバ200は、CPU(Central Processing Unit)210、メモリ220、ネットワークインタフェース230、ストレージインタフェース240を有している。CPU210は、メモリ220に記憶されたプログラムを実行することにより、各種処理を実行する。メモリ220には、CPU210が実行するプログラムやデータが保存される。ネットワークインタフェース230は、複数のNASクライアント10、管理端末100とネットワーク2を介したデータ通信を行なうためのインタフェースである。ストレージインタフェース240は、ストレージ装置400とネットワーク3を介したデータ通信を行なうためのインタフェースである。
また、NASサーバ300は、CPU310、メモリ320、ネットワークインタフェース330、ストレージインタフェース340を有している。このNASサーバ300に含まれる構成は、NASサーバ200の有する構成と符号が異なるだけで同様であるため、説明を省略する。
ストレージ装置400は、CPU410、メモリ420、ストレージインタフェース430、複数のディスクドライブ440を有している。CPU410は、メモリ420に保存されたプログラムを実行することにより、複数のディスクドライブ440の所定の位置にデータを書き込み、また、所定の位置からデータを読み出す。メモリ420には、CPU410が実行するプログラムやデータが保存される。ストレージインタフェース430は、NASサーバ200,300とネットワーク3を介したデータ通信を行なうためのインタフェースである。複数のディスクドライブ440には、各種データが保存される。
このストレージシステム1においては、ストレージ装置400とNASサーバ200,300をネットワーク3を介して接続し、各NASサーバ200,300からストレージ装置400の複数のディスクドライブ440にアクセス可能な構成となっている。また、NASサーバ200,300は、互いにネットワーク2を介して通信可能となっている。つまり、NASクライアント10のユーザに提供するサービスが実行されるときに、使用されるディスクドライブ440へのアクセスは、NASサーバ200,300間で排他処理を行うように調整して実行する必要がある。
図2は、ストレージシステム1の論理構成を示す図である。図2に示すように、NASサーバ200は、仮想ファイルサーバVNAS1、仮想ファイルサーバVNAS2を有している。また、NASサーバ300は仮想ファイルサーバVNAS3,仮想ファイルサーバVNAS4を有している。さらに、NASサーバ200とNASサーバ300とは、ポート233、ポート333とを利用して通信可能となっている。ストレージ装置400内には、ボリュームa〜hが設けられている。このボリュームa〜hは、複数のディスクドライブ440から構成されるボリュームである。
仮想ファイルサーバVNAS1は、ポート231を介して所定のNASクライアント10と接続し、ポート241を介してボリュームa〜hへアクセス可能となっている。また、仮想ファイルサーバVNAS1は、仮想ボリュームa,bを有している。したがって、所定のNASクライアント10からのデータライト、そのNASクライアント10のデータリードはボリュームa,bに対して行なわれる。
仮想ファイルサーバVNAS2は、ポート232を介して所定のNASクライアント10と接続し、ポート241を介してボリュームa〜hへアクセス可能となっている。また、仮想ファイルサーバVNAS2は、仮想ボリュームc,dを有している。したがって、所定のNASクライアント10からのデータライト、そのNASクライアント10のデータリードはボリュームc,dに対して行なわれる。
仮想ファイルサーバVNAS3は、ポート331を介して所定のNASクライアント10と接続し、ポート341を介してボリュームa〜hへアクセス可能となっている。また、仮想ファイルサーバVNAS3は、仮想ボリュームe,fを有している。したがって、所定のNASクライアント10からのデータリード、そのNASクライアント10のデータリードはボリュームe,fに対して行なわれる。
仮想ファイルサーバVNAS4は、ポート332を介して所定のNASクライアント10と接続し、ポート341を介してボリュームa〜hへアクセス可能となっている。また、仮想ファイルサーバVNAS3は、仮想ボリュームg,hを有している。したがって、所定のNASクライアント10からのデータライト、そのNASクライアント10のデータリードはボリュームg,hに対して行なわれる。
このようにNASサーバ200,300上では、それぞれ複数の仮想ファイルサーバVNAS1,2、仮想ファイルサーバVNAS3,4を実行することができる。この仮想ファイルサーバVNAS1〜4は、それぞれが異なる設定を持つOS(Operating System)環境である。これら仮想ファイルサーバVNAS1〜VNAS4は、それぞれ他の仮想ファイルサーバから独立して動作する。
次に、NASサーバ200,300のメモリ220,320に保存される共通のモジュール及びテーブルについて図3から図6を参照して説明する。
図3は、NASサーバソフトウェアモジュールの構成を示すブロック図である。このNASサーバソフトウェアモジュール500には、クラスタ管理モジュール570、ネットワークインタフェースアクセスモジュール510、ストレージインタフェースアクセスモジュール520、仮想NAS実行モジュール530、ディスクアクセスモジュール540、ファイルシステムモジュール550、ファイル共有モジュール560が含まれている。
ネットワークインタフェースアクセスモジュール510は、複数のNASクライアント10、他のNASサーバと通信を行なうためのモジュールである。ストレージインタフェースアクセスモジュール520は、ストレージ装置400内のディスクドライブ440にアクセスするためのモジュールである。仮想NAS実行モジュール530は、仮想ファイルサーバを実行するためのモジュールである。ディスクアクセスモジュール540はディスクドライブ440にアクセスするためのモジュールである。ファイルシステムモジュール550は、どのディスクドライブのどのファイルかを特定するためのモジュールである。ファイル共有モジュール560は、NASクライアント10からファイル単位での要求を受けるためのモジュールである。
したがって、NASクライアント10から要求があると、ファイル共有モジュール560、ファイルシステムモジュール550、ディスクアクセスモジュール540、仮想NAS実行モジュール530、ストレージインタフェースアクセスモジュール520が実行され、ストレージ装置400内のボリュームa〜hのいずれかとのデータ通信が行なわれる。
クラスタ管理モジュール570は、仮想ファイルサーバに関する処理を行うモジュールである。クラスタ管理モジュール570は、仮想NAS起動プログラム571、仮想NAS停止プログラム572、仮想NAS作成プログラム573、仮想NAS削除プログラム574、仮想NAS設定プログラム575、仮想NAS稼動ノード変更プログラム576、ディスク設定解析プログラム577、ディスク設定反映プログラム578、ノード起動プログラム579、ノード停止プログラム580、他ノードリクエスト実行プログラム581が含まれる。
仮想NAS起動プログラム571は、仮想ファイルサーバを起動するためのプログラムである。仮想NAS停止プログラム572は、仮想ファイルサーバを停止するためのプログラムである。仮想NAS作成プログラム573は、仮想ファイルサーバを作成するためのプログラムである。仮想NAS削除プログラム574は、仮想ファイルサーバを削除するためのプログラムである。仮想NAS設定プログラム575は、仮想ファイルサーバを設定するためのプログラムである。仮想NAS稼動ノード変更プログラム576は、仮想NASの稼動ノードを変更するためのプログラムである。ディスク設定解析プログラム577は、ディスク設定を解析するためのプログラムである。ディスク設定反映プログラム578は、ディスク設定を反映するためのプログラムである。ノード起動プログラム579は、ノードを起動するためのプログラムである。ノード停止プログラム580は、ノードを停止するためのプログラムである。他ノードリクエスト実行プログラム581は、他ノードへのリクエストを実行するためのプログラムである。これらのプログラムがCPU210に実行されたときの処理の詳細については後述する。
図4は、クラスタ構成ノードテーブル600を示す図である。クラスタ構成ノードテーブル600は、仮想ファイルサーバのIDと、その仮想ファイルサーバが実行中のノードが保持するIPアドレスを保存するテーブルである。
クラスタ構成ノードテーブル600は、ノード識別子欄610、IPアドレス欄620を有している。ノード識別子欄610は、仮想ファイルサーバのIDを保存する。IPアドレス欄610は、ノードが保持するIPアドレスが保存される。
クラスタ構成ノードテーブル600には、例えば、ノード識別子として“NAS1”,IPアドレスとして“192.168.10.1”が保存される。
図5は、ディスクドライブテーブル700を示す図である。ディスクドライブテーブル700は、NASサーバ200,300がストレージ装置400のアクセス可能なディスクドライブ440の一覧を、そのディスクドライブ440のディスク識別子と利用可否によって保存するテーブルである。
ディスクドライブテーブル700は、ディスク識別子欄710、利用可否欄720を有している。ディスク識別子欄710はディスク識別子を保存する。利用可否欄720は、ディスク識別子欄710に保存されたディスク識別子が示すディスク(ボリューム)が利用できるか否かの情報を保存する。この第1の実施形態では、利用可否欄720に“×”が保存された場合はディスク(ボリューム)が利用できず、“○”が保存された場合はディスク(ボリューム)が利用できる状態を示すこととする。
ディスクドライブテーブル700には、例えば、ディスク識別子として“a”、この“a”の利用可否として“×”が保存される。すなわち、ボリュームaは利用できない、という情報が保存される。
図6は、仮想NAS情報テーブル800を示す図である。仮想NAS情報テーブル800は、仮想ファイルサーバに関する情報を保存するテーブルである。仮想NAS情報テーブル800は、仮想NAS識別子欄810、システムディスク識別子欄820、データディスク識別子欄830、ネットワークポート欄840、IPアドレス欄850、状態欄860及び作成ノード識別子欄870を有している。
仮想NAS識別子欄810は、仮想ファイルサーバの識別子である仮想NAS識別子(以下では、仮想NASIDと称することもある。)を保存する欄である。システムディスク識別子欄820は、システムディスクとなるディスク(ボリューム)の識別子を保存する欄である。データディスク識別子欄830は、データディスクとなるディスク(ボリューム)の識別子を保存する欄である。ネットワークポート欄840は、ネットワークポートを保存する欄である。IPアドレス欄850は、IPアドレスを保存する欄である。状態欄860は、仮想ファイルサーバが稼動しているか停止しているかの情報を保存する欄である。作成ノード識別子欄870は、仮想ファイルサーバが作成されたノードの識別子を保存する欄である。
仮想NAS情報テーブル800には、例えば、図6に示すように、仮想ファイルサーバの識別子として“VNAS1”、システムディスク識別子として“a”、データディスク識別子として“b”、ネットワークポートとして、“eth1”、IPアドレスとして“192.168.11.1”、状態として“稼動”、作成ノード識別子として“NAS1”がそれぞれ1つの列に保存される。なお、作成ノード識別子欄870の“NAS1”はNASサーバ200を示す識別子であり、“NAS2”はNASサーバ300を示す識別子である。
次に、各ボリュームa〜hに保存されるLU格納情報テーブル900について説明する。図7は、LU格納情報テーブル900を示す図である。
LU格納情報テーブル900は、ボリュームに格納されるデータに関する情報を保存するテーブルである。LU格納情報テーブル900は、項目名欄910と、情報欄920とを有している。項目欄910は、仮想NAS識別子欄、作成識別子ノード欄、ディスク種別欄、ネットワークポート情報欄、IPアドレス欄を有している。情報欄920には、項目名欄910に設定された項目と対応する情報が保存される。
仮想NAS識別子欄は、仮想NASを識別するための仮想NAS識別子を保存する。作成識別子ノード欄は作成された識別子のノードを保存する。ディスク種別欄は、システムディスクか、データディスクかを示すディスク種別を保存する。ネットワークポート情報欄はネットワークポートを示す情報を保存する。IPアドレス欄は、IPアドレスを保存する。
LU格納情報テーブル900には、例えば、仮想NAS識別子として“VNAS1”、作成識別ノードとして“NAS1”、ディスク種別として“システム”、ネットワークポート情報として“ポート1”、IPアドレスとして“192.768.10.11”が保存される。
次に図8から図18のフローチャートを用いて、クラスタ管理モジュール570に保存される各種プログラム571〜581について説明する。これらの処理は、NASサーバのCPU(なお、以下ではNASサーバ200のCPU210の実行する処理として説明する。)によって実行される処理である。
先ず、ノード起動プログラム579について説明する。図8は、CPU210がノード起動プログラム579を実行したときの処理を示すフローチャートである。
図8に示すように、ステップS101において、CPU210は、クラスタ構成ノードテーブル600にクラスタを構成する全ノードのノード識別子とIPアドレスを設定する。ステップS102において、CPU210は、ストレージインタフェースアクセスモジュール520を経由してディスクドライブ440を認識する。ステップS103において、CPU210は、ディスク設定解析プログラム577を呼びだす。これにより、ディスク設定解析処理が実行される。このディスク設定解析処理については図11を用いて後述する。
そして、ステップS104において、CPU210は、仮想NAS情報テーブル800から作成ノード識別子が自ノードと一致する仮想NASを選択する。ステップS105において、CPU210は、選択した仮想NASを指定して仮想NAS起動プログラム571を呼び出す。これにより、仮想NAS起動処理が実行される。この仮想NAS起動処理については、図14を参照して後述する。
そして、ステップS106において、CPU210は仮想NAS情報テーブル800の全エントリをチェックしたか否かを判定する。全エントリのチェックがされていないと判定した場合は(S106:NO)、CPU210はステップS104,S105の処理を繰り返す。一方、CPU210は、全エントリのチェックがされていると判定した場合は(S106:YES)、この処理を終了する。
次に、ノード停止プログラム580について説明する。図9は、CPU210がノード停止プログラム580を実行したときの処理を示すフローチャートである。
図9に示すように、ステップS201において、CPU210は、仮想NAS情報テーブル800から自ノードで稼動状態の仮想NASを選択する。そして、CPU210は、ステップS201において、その選択した仮想NASを指定して仮想NAS停止プログラム572を呼び出す。これにより仮想NAS停止処理が実行される。この仮想NAS停止処理については、図15を参照して後述する。
ステップS203において、CPU210は、仮想NASテーブル800の全エントリをチェックしたか否かを判定する。全エントリのチェックがされていないと判定した場合は(S203:NO)、CPU210は、ステップS201,S202の処理を繰り返す。一方、全円鳥のチェックがされていると判定した場合は(S203:YES)、CPU210は、この処理を終了する。
次に、ディスク設定反映プログラム578について説明する。図10は、CPU210がディスク設定反映プログラム578を実行したときの処理を示すフローチャートである。
ステップS301において、CPU210は、受け取ったデータがディスクへの格納指示か否かを判定する。ディスクへの格納指示であると判定した場合は(S301:YES)、CPU210は、ステップS302において、指定されたディスクに仮想NASID,作成識別子ノード、ディスク種別を示す情報をLU格納情報テーブル900に格納する。ステップS303において、CPU210は、ディスクドライブテーブル700の該当ディスクの利用可否を“×”に変更する。ステップS304において、CPU210は、ディスクアクセスモジュール540に指定されたディスクには、LU格納情報テーブル900があることを設定する。そして処理は、終了する。
一方、ディスクへの格納指示でないと判定した場合は(S301:NO)、ステップS305において、CPU210は、指定されたディスクのLU格納情報テーブル900を削除する。ステップS306において、CPU210は、ディスクドライブテーブル700の該当ディスクの利用可否を“○”に変更する。ステップS307において、CPU210は、ディスクアクセスモジュール540に指定されたディスクには、LU格納情報テーブルがないことを設定する。そして処理は、終了する。
次に、ディスク設定解析プログラム577について説明する。図11は、CPU210がディスク設定解析プログラム577を実行したときの処理を示すフローチャートである。
ステップS401において、CPU210は、指定のディスクにLU格納情報テーブル900が存在するか否かを判定する。存在すると判定した場合は(S401:YES)、CPU210は、ステップS402において、仮想NAS情報テーブル800に該当NASの行があるか否かを判定する。該当NASの行があると判定した場合(S402:YES)、CPU210は、ステップS403において、仮想NAS情報テーブル800に仮想NASIDの行を作成する。
該当仮想NASの行がないと判定した場合(S402:NO)、又は、ステップS403において仮想NASIDの行を作成した場合、ステップS404において、CPU210は、仮想NA情報テーブル800に、ディスク識別子、ネットワークポート、IPアドレス、状態、作成ノード識別子を登録する。そして、ステップS405において、CPU210は、ディスクドライブテーブル700の該当ディスクの行を作成して、利用可否を“×”に設定する。そして、この処理は終了する。
一方、指定のディスクにLU格納情報テーブル900が存在しないと判定した場合は(S401:NO)、ステップS406において、CPU210は、ディスクドライブテーブル700の該当ディスクの行を作成して、利用可否を“○”に設定する。そして、この処理は終了する。
次に、仮想NAS作成プログラム573について説明する。図12は、CPU210が仮想NAS作成プログラム573を実行したときの処理を示すフローチャートである。
ステップS501において、CPU210は、指定仮想NASIDが仮想NAS情報テーブル800の既存のID(識別子)と異なるか否かを判定する。異なると判定した場合(S501:YES)、ステップS502において、CPU210は、指定ディスクIDがディスクドライブテーブル700で利用可能となっているか否かを判定する。
利用可能となっていると判定した場合(S502:NO)、ステップS503において、CPU210は、指定ディスクに対して仮想NASID及びシステムとして使用するようにディスク設定反映プログラム578を呼び出す。これにより、既述のディスク設定反映処理が実行される。そして、ステップS504において、CPU210は、指定ディスクに対して仮想NASのシステム設定を行なう。ステップS505において、CPU210は、仮想NAS情報テーブル800に情報を登録する。そして、処理は終了する。
一方、CPU210が既存のID(識別子)と異ならないと判定した場合(S501:NO)、又は、ディスクドライブテーブル700で利用可能となっていると判定した場合(S502:NO)は、そのままこの処理は終了する。
次に、仮想NAS削除プログラム574について説明する。図13は、仮想NAS削除プログラム574をCPU210が実行したときの処理を示すフローチャートである。
ステップS601において、CPU210は、仮想NAS情報テーブル800から削除対象の仮想NASで使用するディスクを選択する。そして、ステップS602において、CPU210は、選択したディスクに対してLU格納情報テーブル900を削除するようにディスク設定反映プログラム577を呼び出す。これにより、既述のディスク設定反映処理が実行される。
そして、ステップS603において、CPU210は、仮想NAS情報テーブル800の全ディスクの削除処理をしたか否かを判定する。全ディスクの削除処理を行っていないと判定した場合は(S603:NO)、ステップS601,S602の処理を繰り返す。全ディスクの削除処理を行っていると判定した場合は(S603:YES)、ステップS604において、CPU210は、仮想NAS情報テーブル800から削除対象の仮想NASの行を削除する。そして、処理は終了する。
次に、仮想NAS起動プログラム571について説明する。図14は、仮想NAS起動プログラム571をCPU210が実行したときの処理を示すフローチャートである。
ステップS701において、CPU210は、仮想NAS情報テーブル800から使用ディスク情報を読み出す。ステップS702において、CPU210は、読み出した使用ディスク情報に基づいて、クラスタ構成ノード全てに対して該当仮想NASが停止状態か否かを判定する。
停止状態と判定した場合は(S702:YES)、ステップS703において、CPU210は、仮想NASIDと使用ディスク情報を仮想NAS実行モジュール530に設定するとともに、仮想NASの起動を指示する。そして、ステップS704において、CPU210は、仮想NAS情報テーブル800の状態を“稼動”に変更する。
このようにステップS704の処理が終了したとき、又は、停止状態でないと判定したときは(S702:NO)、この処理は終了する。
次に、仮想NAS停止プログラム572について説明する。図15は、仮想NAS停止プログラム572をCPU210が実行したときの処理を示すフローチャートである。
ステップS801において、CPU210は、仮想NAS実行モジュール530に停止及び設定解除を指示する。そして、ステップS802において、CPU210は、仮想NAS情報テーブル800の状態を“停止”に変更する。そして、処理は、終了する。
次に、仮想NAS設定プログラム575について説明する。図16は、CPU210が仮想NAS設定プログラム575を実行したときの処理を示すフローチャートである。
ステップS901において、CPU210は、仮想NASへのディスク割り当てか否かを判定する。仮想NASへのディスク割り当てであると判定した場合は(S901:YES)、CPU210は、仮想NASIDと使用ディスク情報を、ディスク設定反映プログラム578を呼び出して設定する。ステップS903において、CPU210は、ディスクドライブテーブル700の利用可否を“×”に変更する。
一方、仮想NASへのディスク割り当てでないと判定した場合は(S901:NO)、ステップS904において、CPU210は、ディスク設定反映プログラム578を呼び出し、LU格納情報テーブル900を削除する。そして、ディスクドライブテーブル700の利用可否を“○”に設定する。ステップS903,又は、S905の処理を終えると、この処理は終了する。
次に、他ノードリクエスト実行プログラム581について説明する。図17は、CPU210が他ノードリクエスト実行プログラム581を実行したときの処理を示すフローチャートである。
ステップS1001において、CPU210は、受け取った要求が仮想NASの起動リクエストか否かを判定する。仮想NASの起動リクエストであると判定した場合は(S1001:YES)、ステップS1002において、CPU210は、指定された仮想NASを起動するために仮想NAS起動プログラム571を呼び出す。これにより、仮想NAS起動処理が実行される。ステップS1003において、CPU210は、ディスクドライブテーブル700の利用可否を“×”に設定する。
仮想NASの起動リクエストでないと判定した場合は(S1001:NO)、ステップS1004において、CPU210は、前記受け取った要求が仮想NASの停止リクエストか否かを判定する。仮想NASの停止リクエストであると判定した場合は(S1004:YES)、ステップS1005において、CPU210は、指定された仮想NASを停止するために仮想NAS停止プログラム572を呼び出す。これにより、仮想NAS停止処理が実行される。
また、仮想NASの停止リクエストでないと判定した場合は(S1004:NO)、ステップS1006において、CPU210は、指定された仮想NASの状態を返信する。ステップS1003,S1005,S1006の処理が終了すると、この処理は終了する。
次に、仮想NAS稼動ノード変更プログラム576について説明する。図18は、CPU210が仮想NAS稼動ノード変更プログラム576を実行したときの処理を示すフローチャートである。
ステップS1101において、CPU210は、指定の仮想NASを停止するため仮想NAS停止プログラム571を呼び出す。そして、ステップS1102において、CPU210は、指定の仮想NASを稼動させるノードの他ノードリクエスト実行プログラム581を呼び出して起動させる。そして、この処理は終了する。
続いて、以上のように構成されたストレージシステム1の作用について説明する。図19は、その作用を説明するための図である。なお、1つの図でLU格納情報テーブル900に基づいて仮想ファイルサーバにボリュームを割り当てる作用と、稼動ノード変更時にLU格納情報テーブル900に基づいて仮想ファイルサーバにボリュームを割り当てる作用を説明する都合上、ストレージシステム1を、ストレージシステム1´とした場合で説明する。
図19は、ストレージシステム1´の論理構成を示すブロック図である。ストレージシステム1´は、ノード(NASサーバ)1〜ノード3を有するとともに、ボリュームa〜lを有している。ノード1には、クラスタ管理モジュール570a、仮想ファイルサーバVNAS1(ボリュームa,bが割り当てられている。)、仮想ファイルサーバVNAS2(ボリュームc,dが割り当てられている。)を有している。
また、ノード2は、クラスタ管理モジュール570b、仮想ファイルサーバVNAS3(ボリュームe,fが割り当てられている。)、仮想ファイルサーバVNAS4(ボリュームg,hが割り当てられている。)、仮想ファイルサーバVNAS5(ボリュームi,jが割り当てられている。)を有している。
さらに、ノード3は、クラスタ管理モジュール570c、仮想ファイルサーバVNAS6(ボリュームk,lが割り当てられている。)を有している。なお、ノード2の有する仮想ファイルサーバVNAS5は、ノード3の仮想ファイルサーバVNAS5が、フェイルオーバが実行されることによりノード3からノード2に移動したものである。
また、ボリュームa〜lは、それぞれLU情報格納テーブル900a〜900lを有している。LU格納情報テーブル900a〜900lには、それぞれのボリュームが利用される仮想ファイルサーバと対応する仮想NAS識別子が設定されている。例えば、LU格納情報テーブル900aには、仮想NAS識別子として“VNAS1”が設定されている。
ストレージシステム1´では、仮想ファイルサーバVNAS1は、クラスタ管理モジュール570aを介して、ボリュームa,bに対してデータライト、データリードを行うこができるようになっている。このボリュームa,bを例えば、仮想ファイルサーバVNAS2で利用できるようにクラスタ管理モジュール570bが設定しようとしても、LU情報格納テーブル900a,900bに仮想NAS識別子として、“VNAS1”が設定されているため、クラスタ管理モジュール570bは、利用できないことを確認することができる。したがって、ボリュームa,bは、仮想ファイルサーバVNAS1で利用されているという情報を全てのノード1〜ノード3で共有する必要がなくなる。
また、クラスタ管理モジュール570cでファイルオーバが実行され、ノード2に仮想ファイルサーバVNAS5が移動され、仮想ファイルサーバVNAS5の稼動ノードがノード3からノード2に変更された場合にも、他ノードリクエスト実行プログラム581を実行してLU格納情報テーブル900i,900jの作成ノード識別子を変更することにより、ボリュームi,jの作成ノード識別子が、ノード3と対応する識別子からノード2と対応する識別子に変更されるため、その変更された構成情報を全てのノード1〜ノード3で共有する必要がなくなる。
このように、ストレージシステム1´では、ボリュームの構成変更時に構成に関する情報の同期処理をノード1〜ノード3の間で行う必要がなくなり、その時間を短縮することができ、また、保存するデータ量も少なくすることができる。
(第2の実施形態)
次に、第2の実施形態について説明する。なお、第2の実施形態のストレージシステムは、ストレージシステム1と物理的な構成は同様であるため、それらの構成についてはストレージシステム1と同様な符号を付すこととし、図示及び説明については省略する。
次に、第2の実施形態について説明する。なお、第2の実施形態のストレージシステムは、ストレージシステム1と物理的な構成は同様であるため、それらの構成についてはストレージシステム1と同様な符号を付すこととし、図示及び説明については省略する。
この第2の実施形態は、CPU410がボリュームへのデータライト及びボリュームからのデータリードを行なうときに、その要求元の仮想NAS識別子がボリューム内に格納されたLU格納情報テーブル900の仮想NAS識別子が一致するか否かを判定し、一致している場合にデータライト又はデータリードの処理を行うように構成するものである。
したがって、この第2の実施形態のストレージシステム1では、仮想NAS識別子が一致しない仮想ファイルサーバからはデータライト又はデータリードを行なうことができない。すなわち、同一NASサーバ上で動作する他の仮想ファイルサーバからでもボリュームへのアクセスができないように制御している。このため、ストレージシステム1はボリュームと対応する仮想ファイルサーバ以外の仮想ファイルサーバからボリュームを隠蔽するように構成することができる。すなわち、ボリュームと対応する仮想ファイルサーバ以外の仮想ファイルサーバにはボリュームを認識させないようにすることが可能となる。
なお、この第2の実施形態では、仮想NAS識別子を用いてボリュームと対応している仮想ファイルサーバか否かを判定するように構成したが、要求元の仮想NAS識別子を判定するために仮想NAS識別子をストレージ装置400に通知する方法は複数ある。例えば、仮想ファイルサーバとストレージ装置400との接続を最初に定義する際に仮想ファイルサーバからストレージ装置400に通知し、ストレージ装置400が接続経路を記憶しておく方法がある。あるいは、仮想ファイルサーバがストレージ装置400にデータライト又はデータリードを行う際に発行するコマンドと同時に仮想NAS識別子を通知する方法がある。
(他の実施形態)
上記第1の実施形態では、本発明を、複数のボリュームa〜hと、その複数のボリュームa〜hのうちの少なくとも1以上のボリュームをデータ処理のために利用する複数の仮想ファイルサーバVNAS1,VNAS2とを含む、クラスタシステムを構成するストレージシステム1であって、複数の仮想ファイルサーバVNAS1,VNAS2はそれぞれ、複数のボリュームa〜hにアクセスでき、複数の仮想ファイルサーバVNAS1,VNAS2がデータ処理のために利用するボリュームは、仮想ファイルサーバVNAS1,VNAS2に対応していることを示す第1の識別子(VNAS1,VNAS2)を格納するLU格納情報テーブル900を有する構成に適用した場合で説明したが、本発明はこれに限るものではない。
上記第1の実施形態では、本発明を、複数のボリュームa〜hと、その複数のボリュームa〜hのうちの少なくとも1以上のボリュームをデータ処理のために利用する複数の仮想ファイルサーバVNAS1,VNAS2とを含む、クラスタシステムを構成するストレージシステム1であって、複数の仮想ファイルサーバVNAS1,VNAS2はそれぞれ、複数のボリュームa〜hにアクセスでき、複数の仮想ファイルサーバVNAS1,VNAS2がデータ処理のために利用するボリュームは、仮想ファイルサーバVNAS1,VNAS2に対応していることを示す第1の識別子(VNAS1,VNAS2)を格納するLU格納情報テーブル900を有する構成に適用した場合で説明したが、本発明はこれに限るものではない。
また、本発明を、ストレージシステム1がNASサーバ200,300はそれぞれ、複数のボリュームa〜hのそれぞれが利用できるか否かの状態を示す情報を保持するディスクドライブテーブル700を有する構成に適用した場合で説明したが、本発明はこれに限られるものではない。
さらに、本発明を、LU格納情報テーブル900が、第2の識別子(NAS1,NAS2)を含む構成に適用した場合で説明したが、本発明はこれに限るものではない。
本発明は、ストレージシステム及びそのボリューム管理方法に広く適用することができる。
1,1´…ストレージシステム、10…NASクライアント、100…管理端末、200,300…NASサーバ、210,310…CPU、400…ストレージ装置、500…NASサーバソフトウェアモジュール、510…ネットワークインタフェースアクセスモジュール、520…ストレージインタフェースアクセスモジュール、530…仮想NAS実行モジュール、540…ディスクアクセスモジュール、550…ファイルシステムモジュール、560…ファイル共有モジュール、570…クラスタ管理モジュール、600…クラス構成ノードテーブル、700…ディスクドライブテーブル、800…仮想NAS情報テーブル、900…LU格納情報テーブル
Claims (18)
- 複数のボリュームと、その複数のボリュームのうちの少なくとも1以上のボリュームをデータ処理のために利用する複数の仮想サーバとを含む、クラスタシステムを構成するストレージシステムであって、
前記複数の仮想サーバはそれぞれ、前記複数のボリューム全てにアクセスでき、
前記複数の仮想サーバが前記データ処理のために利用するボリュームは、その仮想サーバに対応していることを示す情報を格納する格納部を有することを特徴とするストレージシステム。 - 前記複数のボリュームは少なくとも1以上のストレージ装置に含まれ、前記複数の仮想サーバは少なくとも1以上のサーバに含まれることを特徴とする請求項1記載のストレージシステム。
- 前記データ処理は、データライト処理又はデータリード処理であることを特徴とする請求項2記載のストレージシステム。
- 前記1以上のサーバはそれぞれ、前記複数のボリュームのそれぞれが利用できるか否かの状態を示す情報を保持する保持部を有することを特徴とする請求項3記載のストレージシステム。
- 前記ボリュームの作成は、ストレージシステムを管理する管理端末からの指示に基づいて行われることを特徴とする請求項3記載のストレージシステム。
- 前記格納部が格納する情報は、その格納部が格納されるボリュームと対応する仮想サーバを特定する第1の識別子に関する情報を含むことを特徴とする請求項3記載のストレージシステム。
- 前記格納部が格納する情報は、前記第1の識別子により特定される仮想サーバが含まれるサーバを特定する第2の識別子に関する情報を含むことを特徴とする請求項6記載のストレージシステム。
- 前記複数の仮想サーバのうちの1つに対してフェイルオーバが行なわれ、他のサーバに含まれるように変更されたときに、前記格納部に格納される第2の識別子が前記他のサーバと対応する第2の識別子に変更されることを特徴とする請求項7記載のストレージシステム。
- 前記ストレージ装置は、前記複数の仮想サーバの1つから前記複数のボリュームの1つに前記データライト処理又はデータリード処理の要求を受けたときに、そのボリュームと対応する仮想サーバであるか否かを前記ボリュームに格納される前記第1の識別子に関する情報に基づいて判定し、前記要求を受けた仮想サーバが対応する仮想サーバである場合は前記データライト処理又は前記データリード処理を行い、前記要求を受けた仮想サーバが対応する仮想サーバでない場合は前記データライト処理又は前記データリード処理を行わない制御を行なう制御部を含むことを特徴とする請求項6記載のストレージシステム。
- 複数のボリュームと、その複数のボリュームのうちの少なくとも1以上のボリュームをデータ処理のために利用する複数の仮想サーバとを含む、クラスタシステムを構成するストレージシステムのボリューム管理方法であって、
前記複数の仮想サーバが前記データ処理のために利用するボリュームに、その仮想サーバに対応していることを示す情報を格納するステップと、
前記複数の仮想サーバが前記複数のボリュームのうちの1つに前記データ処理を行うときに前記格納された情報に基づいてアクセスするステップとを有することを特徴とするストレージシステムのボリューム管理方法。 - 前記複数のボリュームは少なくとも1以上のストレージ装置に含まれ、前記複数の仮想サーバは少なくとも1以上のサーバに含まれることを特徴とする請求項10記載のストレージシステムのボリューム管理方法。
- 前記データ処理は、データライト処理又はデータリード処理であることを特徴とする請求項11記載のストレージシステムのボリューム管理方法。
- 前記1以上のサーバは、それぞれ前記複数のボリュームがそれぞれ利用できるか否かの状態を示す情報を保持するステップを有することを特徴とする請求項12記載のストレージシステムのボリューム管理方法。
- 前記ボリュームの作成は、ストレージシステムを管理する管理端末からの指示に基づいて行われるステップを有することを特徴とする請求項12記載のストレージシステムのボリューム管理方法。
- 前記格納するステップにおける情報は、格納されるボリュームと対応する仮想サーバを特定する第1の識別子に関する情報を含むことを特徴とする請求項12記載のストレージシステムのボリューム管理方法。
- 前記格納するステップにおける情報は、前記第1の識別子により特定される仮想サーバが含まれるサーバを特定する第2の識別子に関する情報を含むことを特徴とする請求項15記載のストレージシステムのボリューム管理方法。
- 前記複数の仮想サーバのうちの1つに対してフェイルオーバが行なわれ、他のサーバに含まれるように変更されたときに、前記第2の識別子を格納するステップで格納された第2の識別子を前記他のサーバと対応する第2の識別子に変更するステップを有することを特徴とする請求項16記載のストレージシステムのボリューム管理方法。
- 前記複数の仮想サーバの1つから前記複数のボリュームの1つに前記データライト処理又はデータリード処理の要求を受けたときに、そのボリュームと対応する仮想サーバであるか否かを前記ボリュームに格納される前記第1の識別子に関する情報に基づいて判定するステップと、
前記要求を受けた仮想サーバが対応する仮想サーバである場合は前記データライト処理又は前記データリード処理を行うステップと、
前記要求を受けた仮想サーバが対応する仮想サーバでない場合は前記データライト処理又は前記データリード処理を行わないステップを有することを特徴とする請求項12記載のストレージシステムのボリューム管理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008082030A JP2009237826A (ja) | 2008-03-26 | 2008-03-26 | ストレージシステム及びそのボリューム管理方法 |
US12/122,072 US20090248847A1 (en) | 2008-03-26 | 2008-05-16 | Storage system and volume managing method for storage system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008082030A JP2009237826A (ja) | 2008-03-26 | 2008-03-26 | ストレージシステム及びそのボリューム管理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009237826A true JP2009237826A (ja) | 2009-10-15 |
Family
ID=41118788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008082030A Pending JP2009237826A (ja) | 2008-03-26 | 2008-03-26 | ストレージシステム及びそのボリューム管理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090248847A1 (ja) |
JP (1) | JP2009237826A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7332488B2 (ja) | 2020-01-16 | 2023-08-23 | 株式会社日立製作所 | ストレージシステム及びストレージシステムの制御方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8473615B1 (en) | 2008-05-20 | 2013-06-25 | Verizon Patent And Licensing Inc. | System and method for customer provisioning in a utility computing platform |
US8484355B1 (en) | 2008-05-20 | 2013-07-09 | Verizon Patent And Licensing Inc. | System and method for customer provisioning in a utility computing platform |
KR101620058B1 (ko) * | 2009-11-23 | 2016-05-24 | 삼성전자주식회사 | 가상 머신 간 화면 전환 장치 및 방법 |
US8627135B2 (en) * | 2010-08-14 | 2014-01-07 | Teradata Us, Inc. | Management of a distributed computing system through replication of write ahead logs |
JP5150696B2 (ja) * | 2010-09-28 | 2013-02-20 | 株式会社バッファロー | 記憶処理装置及びフェイルオーバ制御方法 |
US11579861B2 (en) | 2016-02-12 | 2023-02-14 | Nutanix, Inc. | Virtualized file server smart data ingestion |
US11288239B2 (en) | 2016-12-06 | 2022-03-29 | Nutanix, Inc. | Cloning virtualized file servers |
US11281484B2 (en) | 2016-12-06 | 2022-03-22 | Nutanix, Inc. | Virtualized server systems and methods including scaling of file system virtual machines |
US11424984B2 (en) * | 2018-10-30 | 2022-08-23 | Elasticsearch B.V. | Autodiscovery with dynamic configuration launching |
US10795735B1 (en) * | 2018-10-31 | 2020-10-06 | EMC IP Holding Company LLC | Method and apparatus for load balancing virtual data movers between nodes of a storage cluster |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6425059B1 (en) * | 1999-12-11 | 2002-07-23 | International Business Machines Corporation | Data storage library with library-local regulation of access to shared read/write drives among multiple hosts |
US6615219B1 (en) * | 1999-12-29 | 2003-09-02 | Unisys Corporation | Database management system and method for databases having large objects |
US20020188592A1 (en) * | 2001-06-11 | 2002-12-12 | Storage Technology Corporation | Outboard data storage management system and method |
US6944785B2 (en) * | 2001-07-23 | 2005-09-13 | Network Appliance, Inc. | High-availability cluster virtual server system |
US7360034B1 (en) * | 2001-12-28 | 2008-04-15 | Network Appliance, Inc. | Architecture for creating and maintaining virtual filers on a filer |
JP2003316522A (ja) * | 2002-04-26 | 2003-11-07 | Hitachi Ltd | 計算機システムおよび計算機システムの制御方法 |
JP4202709B2 (ja) * | 2002-10-07 | 2008-12-24 | 株式会社日立製作所 | ストレージ装置を有するネットワークにおける、ボリューム及び障害管理方法 |
JP4130615B2 (ja) * | 2003-07-02 | 2008-08-06 | 株式会社日立製作所 | ストレージ装置を有するネットワークにおける障害情報管理方法及び管理サーバ |
JP2004227098A (ja) * | 2003-01-20 | 2004-08-12 | Hitachi Ltd | 記憶デバイス制御装置の制御方法、及び記憶デバイス制御装置 |
JP4567293B2 (ja) * | 2003-01-21 | 2010-10-20 | 株式会社日立製作所 | ファイルサーバ |
JP4415594B2 (ja) * | 2003-07-23 | 2010-02-17 | ソニー株式会社 | サーバ装置、サーバ装置用プログラムおよびサーバ装置の情報処理方法 |
US20050080982A1 (en) * | 2003-08-20 | 2005-04-14 | Vasilevsky Alexander D. | Virtual host bus adapter and method |
US8776050B2 (en) * | 2003-08-20 | 2014-07-08 | Oracle International Corporation | Distributed virtual machine monitor for managing multiple virtual resources across multiple physical nodes |
US20050044301A1 (en) * | 2003-08-20 | 2005-02-24 | Vasilevsky Alexander David | Method and apparatus for providing virtual computing services |
JP4227035B2 (ja) * | 2004-02-03 | 2009-02-18 | 株式会社日立製作所 | 計算機システム、管理装置、ストレージ装置及びコンピュータ装置 |
US7383463B2 (en) * | 2004-02-04 | 2008-06-03 | Emc Corporation | Internet protocol based disaster recovery of a server |
JP4448719B2 (ja) * | 2004-03-19 | 2010-04-14 | 株式会社日立製作所 | ストレージシステム |
US7171532B2 (en) * | 2004-08-30 | 2007-01-30 | Hitachi, Ltd. | Method and system for data lifecycle management in an external storage linkage environment |
GB2419702A (en) * | 2004-10-29 | 2006-05-03 | Hewlett Packard Development Co | Virtual overlay infrastructures which can be suspended and later reactivated |
GB2419701A (en) * | 2004-10-29 | 2006-05-03 | Hewlett Packard Development Co | Virtual overlay infrastructure with dynamic control of mapping |
GB2419703A (en) * | 2004-10-29 | 2006-05-03 | Hewlett Packard Development Co | Isolated virtual overlay infrastructures each having an interface to control interaction with others |
GB2419697A (en) * | 2004-10-29 | 2006-05-03 | Hewlett Packard Development Co | Virtual overlay infrastructures each having an infrastructure controller |
US8769127B2 (en) * | 2006-02-10 | 2014-07-01 | Northrop Grumman Systems Corporation | Cross-domain solution (CDS) collaborate-access-browse (CAB) and assured file transfer (AFT) |
US7933993B1 (en) * | 2006-04-24 | 2011-04-26 | Hewlett-Packard Development Company, L.P. | Relocatable virtual port for accessing external storage |
US7757059B1 (en) * | 2006-06-29 | 2010-07-13 | Emc Corporation | Virtual array non-disruptive management data migration |
US7970851B2 (en) * | 2006-10-31 | 2011-06-28 | Netapp, Inc. | Method and system for managing and monitoring virtual storage servers of a hosting storage server |
US9354927B2 (en) * | 2006-12-21 | 2016-05-31 | Vmware, Inc. | Securing virtual machine data |
US20080201455A1 (en) * | 2007-02-15 | 2008-08-21 | Husain Syed M Amir | Moving Execution of a Virtual Machine Across Different Virtualization Platforms |
US8117495B2 (en) * | 2007-11-26 | 2012-02-14 | Stratus Technologies Bermuda Ltd | Systems and methods of high availability cluster environment failover protection |
JP4871850B2 (ja) * | 2007-12-04 | 2012-02-08 | 株式会社日立製作所 | 仮想計算機システム及び仮想計算機移行制御方法 |
US8296514B2 (en) * | 2007-12-20 | 2012-10-23 | International Business Machines Corporation | Automated correction of contentious storage virtualization configurations |
WO2009088435A1 (en) * | 2007-12-31 | 2009-07-16 | Netapp, Inc. | System and method for automatic storage load balancing in virtual server environments |
US8996841B2 (en) * | 2008-02-06 | 2015-03-31 | Compellent Technologies | Hypervolume data storage object and method of data storage |
US8156491B2 (en) * | 2008-02-29 | 2012-04-10 | Red Hat, Inc. | Fault tolerant virtual machine |
US20100058319A1 (en) * | 2008-08-28 | 2010-03-04 | Hitachi, Ltd. | Agile deployment of server |
-
2008
- 2008-03-26 JP JP2008082030A patent/JP2009237826A/ja active Pending
- 2008-05-16 US US12/122,072 patent/US20090248847A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7332488B2 (ja) | 2020-01-16 | 2023-08-23 | 株式会社日立製作所 | ストレージシステム及びストレージシステムの制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20090248847A1 (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009237826A (ja) | ストレージシステム及びそのボリューム管理方法 | |
US11079966B2 (en) | Enhanced soft fence of devices | |
US7464232B2 (en) | Data migration and copying in a storage system with dynamically expansible volumes | |
JP5775177B2 (ja) | クローンファイル作成方法と、それを用いたファイルシステム | |
US8171176B2 (en) | Method for selective replication of physical devices on a virtual self-configuring zoning expander | |
JP2009276969A (ja) | ストレージシステム及び管理装置を用いたストレージシステムの管理方法 | |
US8732381B2 (en) | SAS expander for communication between drivers | |
US8745342B2 (en) | Computer system for controlling backups using wide area network | |
US20130283264A1 (en) | Method for selective replication of physical devices on a virtual self-configuring zoning expander | |
US20150236974A1 (en) | Computer system and load balancing method | |
EP3648405B1 (en) | System and method to create a highly available quorum for clustered solutions | |
JP2004295465A (ja) | 計算機システム | |
CN109407975B (zh) | 写数据方法与计算节点以及分布式存储系统 | |
CN105095103A (zh) | 用于云环境下的存储设备管理方法和装置 | |
US20150234907A1 (en) | Test environment management apparatus and test environment construction method | |
US9875059B2 (en) | Storage system | |
US8838768B2 (en) | Computer system and disk sharing method used thereby | |
US9348513B2 (en) | SAS virtual tape drive | |
CN112711469A (zh) | 云主机迁移方法、装置、计算机设备和存储介质 | |
JP2020191100A (ja) | システム及びその制御方法並びにプログラム | |
JP2013186755A (ja) | 情報処理装置、イメージファイル管理方法およびプログラム | |
US10496305B2 (en) | Transfer of a unique name to a tape drive | |
WO2016046951A1 (ja) | 計算機システム及びそのファイル管理方法 | |
JPWO2016088372A1 (ja) | アクセス装置、マイグレーション装置、分散ストレージシステム、アクセス方法及びプログラム | |
JP2016024679A (ja) | ストレージ装置、ストレージシステム及びストレージ制御プログラム |