JPWO2005006175A1 - 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 - Google Patents
複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 Download PDFInfo
- Publication number
- JPWO2005006175A1 JPWO2005006175A1 JP2005503857A JP2005503857A JPWO2005006175A1 JP WO2005006175 A1 JPWO2005006175 A1 JP WO2005006175A1 JP 2005503857 A JP2005503857 A JP 2005503857A JP 2005503857 A JP2005503857 A JP 2005503857A JP WO2005006175 A1 JPWO2005006175 A1 JP WO2005006175A1
- Authority
- JP
- Japan
- Prior art keywords
- logical
- lun
- logical unit
- unit number
- grouped
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0662—Virtualisation aspects
- G06F3/0665—Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
- G06F3/0605—Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0689—Disk arrays, e.g. RAID, JBOD
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本発明は、複数のLUNに対する要求を一度で処理できる、複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置を提供することを目的とする。この目的を達成するために、本発明は、各々が論理ユニット番号を有する複数の論理ユニットを選択するステップと、前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てるステップを有する、複数の論理ユニットをグループ化する方法を提供する。
Description
本発明は、複数の論理ユニットより構成されるシステムに関連し、特に、複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置に関連する。
例えば、RAID(Redundant Array of Inexpensive Disks)装置などの大容量ディスク装置は、数多くの物理的なディスク装置を内蔵しそして、それらにより、論理ディスクが構成される。そして、大容量ディスク装置は、サーバが使用できるように、サーバに対して公開されている。
大容量ディスク装置を構成する論理ディスクは、大容量化だけでなく、データ転送レートの高速化又はディスク装置の信頼性を高めるために、複数のディスク装置より構成されるRAID装置として構成される場合が多い。RAID装置は、その動作の方式により、例えば、RAID0、RAID1〜RAID5等に分類される。
大容量ディスク装置は、サーバに対して、LUN(Logical Unit Number、論理ユニット番号)を有する論理ディスクとして公開されている。サーバは、このLUNを認識し、LUN用いて論理ディスクをアクセスすることにより、その論理ディスクを構成する物理ディスクにアクセスして、データベースやファイルシステムなどを、このLUN上に構築する。
サーバ上で動作するデータベース、ファイルシステムおよびファイルシステムを利用して動作するアプリケーションは、動作の必要上から、複数のLUNをわたって論理的な関係を有するデータ(又は、ファイル)を格納して、動作している場合が多い。
図1Aは、サーバ上で動作するアプリケーションが使用するデータベースの構成例を示す図である。図1Bは、サーバ上で動作するアプリケーションが使用するファイルシステム(例えば、SafeFILE)の構成例を示す図である。また、図1Cは、サーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の例を示す図である。
図1Aのデータベース110は、LUN−1を有する論理ディスク120とLUN−2を有する論理ディスク130より構成される。論理ディスク120は、RAID0からRAID5のような方式を使用して、物理ディスク装置121から126により構成される。論理ディスク130は、RAID0からRAID5のような方式を使用して、物理ディスク装置131から136により構成される。
データベース110では、例えば、データベースの実体がLUN−1を有する論理ディスクに格納されそして、動作ログはLUN−2を有する論理ディスクに格納されるようにすることができる。
また、図1Bのファイルシステム(例えば、SafeFILE等)140は、LUN−3を有する論理ディスク150、LUN−4を有する論理ディスク160及び、LUN−5を有する論理ディスク170より構成される。そして、論理ディスク150は、RAID0からRAID5のような方式を使用して、物理ディスク装置151から156により構成される。論理ディスク160は、RAID0からRAID5のような方式を使用して、物理ディスク装置161から166により構成される。
この構成では、複数のLUNを結合した1つのファイルシステムを構成できる。
また、図1Cには、ファイルシステム−1とファイルシステム−2の2つのファイルシステムが示されており、ファイルシステム−1は、LUN−6を有する論理ディスクより構成され、そして、ファイルシステム−2は、LUN−7を有する論理ディスクより構成される。論理ディスク180は、RAID0からRAID5のような方式を使用して、物理ディスク装置181から186により構成される。論理ディスク190は、RAID0からRAID5のような方式を使用して、物理ディスク装置191から196により構成される。
この構成では、アプリケーションは、論理的に関係するデータを、LUN−6の論理ディスク180上のファイルとLUN−7の論理ディスク190上のファイルのような、異なるLUN上の異なるファイルに格納する。
しかし、上述の図1Aから図1Cに示されたようなデータベース110、ファイルシステム140、及び、ファイルシステム−1とファイルシステム−2のよな、LUNを有する論理ディスクにより構成されるシステムの、各論理ディスクを構成する現在のRAID装置は、個々に割当てられたLUNでのみ管理されるように構成されている。従って、上述のように、サーバ上で動作するソフトウェアが、論理的には、複数のLUNに対する一括した要求を行うことを必要としている場合であっても、サーバは、個々のLUNへの要求として、処理をしなければならない。
RAID装置は前述のように、個々に割当てられたLUNでのみ管理されるように構成されているので、複数のLUNを利用するように構成されているサーバ上のソフトウェアは、個々のLUNに対して個別に要求を行ってデータを操作しなければならず、同時に処理したい要求を、一度に処理できないという問題がある。
サーバ上で実行するソフトウェアがデータベース等を管理する上では、サーバ上のソフトウェアなどで複数のLUNに対する要求を一括して管理することが可能ではあるが、しかし、現実のRAID装置に対しては、個々のLUNを介して論理ディスクごとに処理をしなければならない。従って、一括して処理をしたい場合であっても、実際には、サーバがLUN毎に処理を依頼する時間が、異なってしまう。
例えば、RAID装置には、一瞬でLUNを複写するOPC(One Point Copy)機能などが実装されている。しかし、この処理を複数のLUNに対して同時に行いたい場合であっても、個々のLUN毎に要求することが必要なために、実際には要求を発生する時点の間に時間差が発生し、厳密には、同時に処理を実行できないという結果となる。
また、本発明の先行技術は、以下に示す特許文献にも記載されている。特許文献1は、複数の論理ボリュームを、1つの拡張論理ユニットとして制御する拡張LUNを開示している。特許文献2は、拡張論理ユニット単位に、RAID装置でコピーする方式を開示している。また特許文献3では、制御装置LUN(CDLUN)として知られている、仮想LUNを開示している。CDLUNは、アレイ内のLUN対の制御動作に対する、間接メモリマッピングされたアクセスを提供します。
特開平11−327803号公報 特開2000−137582号公報 特開2002−202914号公報
大容量ディスク装置を構成する論理ディスクは、大容量化だけでなく、データ転送レートの高速化又はディスク装置の信頼性を高めるために、複数のディスク装置より構成されるRAID装置として構成される場合が多い。RAID装置は、その動作の方式により、例えば、RAID0、RAID1〜RAID5等に分類される。
大容量ディスク装置は、サーバに対して、LUN(Logical Unit Number、論理ユニット番号)を有する論理ディスクとして公開されている。サーバは、このLUNを認識し、LUN用いて論理ディスクをアクセスすることにより、その論理ディスクを構成する物理ディスクにアクセスして、データベースやファイルシステムなどを、このLUN上に構築する。
サーバ上で動作するデータベース、ファイルシステムおよびファイルシステムを利用して動作するアプリケーションは、動作の必要上から、複数のLUNをわたって論理的な関係を有するデータ(又は、ファイル)を格納して、動作している場合が多い。
図1Aは、サーバ上で動作するアプリケーションが使用するデータベースの構成例を示す図である。図1Bは、サーバ上で動作するアプリケーションが使用するファイルシステム(例えば、SafeFILE)の構成例を示す図である。また、図1Cは、サーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の例を示す図である。
図1Aのデータベース110は、LUN−1を有する論理ディスク120とLUN−2を有する論理ディスク130より構成される。論理ディスク120は、RAID0からRAID5のような方式を使用して、物理ディスク装置121から126により構成される。論理ディスク130は、RAID0からRAID5のような方式を使用して、物理ディスク装置131から136により構成される。
データベース110では、例えば、データベースの実体がLUN−1を有する論理ディスクに格納されそして、動作ログはLUN−2を有する論理ディスクに格納されるようにすることができる。
また、図1Bのファイルシステム(例えば、SafeFILE等)140は、LUN−3を有する論理ディスク150、LUN−4を有する論理ディスク160及び、LUN−5を有する論理ディスク170より構成される。そして、論理ディスク150は、RAID0からRAID5のような方式を使用して、物理ディスク装置151から156により構成される。論理ディスク160は、RAID0からRAID5のような方式を使用して、物理ディスク装置161から166により構成される。
この構成では、複数のLUNを結合した1つのファイルシステムを構成できる。
また、図1Cには、ファイルシステム−1とファイルシステム−2の2つのファイルシステムが示されており、ファイルシステム−1は、LUN−6を有する論理ディスクより構成され、そして、ファイルシステム−2は、LUN−7を有する論理ディスクより構成される。論理ディスク180は、RAID0からRAID5のような方式を使用して、物理ディスク装置181から186により構成される。論理ディスク190は、RAID0からRAID5のような方式を使用して、物理ディスク装置191から196により構成される。
この構成では、アプリケーションは、論理的に関係するデータを、LUN−6の論理ディスク180上のファイルとLUN−7の論理ディスク190上のファイルのような、異なるLUN上の異なるファイルに格納する。
しかし、上述の図1Aから図1Cに示されたようなデータベース110、ファイルシステム140、及び、ファイルシステム−1とファイルシステム−2のよな、LUNを有する論理ディスクにより構成されるシステムの、各論理ディスクを構成する現在のRAID装置は、個々に割当てられたLUNでのみ管理されるように構成されている。従って、上述のように、サーバ上で動作するソフトウェアが、論理的には、複数のLUNに対する一括した要求を行うことを必要としている場合であっても、サーバは、個々のLUNへの要求として、処理をしなければならない。
RAID装置は前述のように、個々に割当てられたLUNでのみ管理されるように構成されているので、複数のLUNを利用するように構成されているサーバ上のソフトウェアは、個々のLUNに対して個別に要求を行ってデータを操作しなければならず、同時に処理したい要求を、一度に処理できないという問題がある。
サーバ上で実行するソフトウェアがデータベース等を管理する上では、サーバ上のソフトウェアなどで複数のLUNに対する要求を一括して管理することが可能ではあるが、しかし、現実のRAID装置に対しては、個々のLUNを介して論理ディスクごとに処理をしなければならない。従って、一括して処理をしたい場合であっても、実際には、サーバがLUN毎に処理を依頼する時間が、異なってしまう。
例えば、RAID装置には、一瞬でLUNを複写するOPC(One Point Copy)機能などが実装されている。しかし、この処理を複数のLUNに対して同時に行いたい場合であっても、個々のLUN毎に要求することが必要なために、実際には要求を発生する時点の間に時間差が発生し、厳密には、同時に処理を実行できないという結果となる。
また、本発明の先行技術は、以下に示す特許文献にも記載されている。特許文献1は、複数の論理ボリュームを、1つの拡張論理ユニットとして制御する拡張LUNを開示している。特許文献2は、拡張論理ユニット単位に、RAID装置でコピーする方式を開示している。また特許文献3では、制御装置LUN(CDLUN)として知られている、仮想LUNを開示している。CDLUNは、アレイ内のLUN対の制御動作に対する、間接メモリマッピングされたアクセスを提供します。
本発明は上記の点に鑑みてなされたもので、複数のLUNに対する要求を一度で処理できる、複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置を提供することを目的とする。
この目的を達成するために、本発明は、各々が論理ユニット番号を有する複数の論理ユニットを選択するステップと、前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てるステップを有する、複数の論理ユニットをグループ化する方法を提供する。
従来は複数の個々の論理ユニット番号(LUN)に対する要求を行っていたが、本発明により、1つのグループに1つのグループ化された論理ユニット番号を割当てることができるので、グループ化された論理ユニット番号(G−LUN)に対する1つの要求により、一度で処理することができるようにすることができる。
この目的を達成するために、本発明は、各々が論理ユニット番号を有する複数の論理ユニットを選択するステップと、前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てるステップを有する、複数の論理ユニットをグループ化する方法を提供する。
従来は複数の個々の論理ユニット番号(LUN)に対する要求を行っていたが、本発明により、1つのグループに1つのグループ化された論理ユニット番号を割当てることができるので、グループ化された論理ユニット番号(G−LUN)に対する1つの要求により、一度で処理することができるようにすることができる。
本発明の他の目的、特徴及び利点は、添付の図面を参照しながら以下の詳細な説明を読むことにより一層明瞭となるであろう。
図1Aは、サーバ上で動作するアプリケーションが使用するデータベースの構成例を示す図である。
図1Bは、サーバ上で動作するアプリケーションが使用するファイルシステムの構成例を示す図である。
図1Cは、サーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の例を示す図である。
図2Aは、本発明の一実施例のデータベースの構成例を示す図である。
図2Bは、本発明の一実施例のファイルシステムの構成例を示す図である。
図2Cは、本発明の一実施例のサーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の例を示す図である。
図3は、本発明の一実施例のシステム構成を示すブロック図である。
図4は、複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブルの第1の実施例を示す図である。
図5は、複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブルの第2の実施例を示す図である。
図6は、管理テーブルを生成及び保守する処理のフローチャートを示す図である。
図7は、G−LUNに対する要求を、個々のLUNに要求する処理及び、個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理のフローチャートを示す図である。
図1Aは、サーバ上で動作するアプリケーションが使用するデータベースの構成例を示す図である。
図1Bは、サーバ上で動作するアプリケーションが使用するファイルシステムの構成例を示す図である。
図1Cは、サーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の例を示す図である。
図2Aは、本発明の一実施例のデータベースの構成例を示す図である。
図2Bは、本発明の一実施例のファイルシステムの構成例を示す図である。
図2Cは、本発明の一実施例のサーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の例を示す図である。
図3は、本発明の一実施例のシステム構成を示すブロック図である。
図4は、複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブルの第1の実施例を示す図である。
図5は、複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブルの第2の実施例を示す図である。
図6は、管理テーブルを生成及び保守する処理のフローチャートを示す図である。
図7は、G−LUNに対する要求を、個々のLUNに要求する処理及び、個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理のフローチャートを示す図である。
以下に、本発明を実施するための実施の形態について、図面を用いて説明する。
図2A、図2B及び、図2Cは、本発明の実施例を示す図である。
図2Aは、前述の図1Aで示されたデータベース110に対して、1つのグループ化されたLUNを割当てる実施例を示す。前述の図1Aで示されたデータベース110は、LUN−1を有する論理ディスク120とLUN−2を有する論理ディスク130より構成されている。本実施例では、個々の論理ディスク120と論理ディスク130には、同様にそれぞれ、LUN−1とLUN−2が与えられ、更に、LUN−1とLUN−2より構成されるデータベース110全体に、グループ化された新たな論理ユニット番号として、LUN−10を与える。そして、このLUN−10は、個々の論理ディスクに対するLUNと異なり、グループ化された論理ユニット番号であることを示す属性(G−LUN)を有する。
このように、個々の論理ディスクに対するLUNにさらに加えて、データベース110に全体として、グループ化された論理ユニット番号LUN−10を与えることにより、サーバは、このグループ化された論理ユニット番号LUN−10を用いて、データベース110に対して要求を送ることができる。そして、これにより、サーバは、従来は複数の個々のLUNに対する要求を行っていたが、本発明により、グループ化された論理ユニット番号LUN−10に対する1つの要求により、一度で処理することができるようにすることができる。
図2Bは、前述の図1Bで示されたファイルシステム140に対して、1つのグループ化されたLUNを割当てる実施例を示す。前述の図1Bで示されたファイルシステム140は、LUN−3を有する論理ディスク150とLUN−4を有する論理ディスク160とLUN−5を有する論理ディスク170より構成されている。本実施例では、個々の論理ディスク150、160及び170には、同様にそれぞれ、LUN−3、LUN−4及び、LUN−5が与えられ、更に、LUN−3、LUN−4及び、LUN−5より構成されるファイルシステム140全体に、グループ化された新たな論理ユニット番号として、LUN−20を与える。そして、このLUN−20は、個々の論理ディスクに対するLUNと異なり、グループ化された論理ユニット番号であることを示す属性(G−LUN)を有する。
このように、個々の論理ディスクに対するLUNにさらに加えて、ファイルシステム140に、グループ化された論理ユニット番号LUN−20を与えることにより、サーバは、このグループ化された論理ユニット番号LUN−20を用いて、データベース110に対して要求を送ることができる。そして、これにより、サーバは、従来は複数の個々のLUNに対する要求を、グループ化された論理ユニット番号LUN−20に対する1つの要求を行っていたが、本発明により、一度で処理することができるようにすることができる。
図2Cは、前述の図1Cで示されたサーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の実施例を示す。前述の図1Cで示されたファイルシステム−1は、LUN−6を有する論理ディスク180により構成され、そして、ファイルシステム−2は、LUN−7を有する論理ディスク190より構成されている。本実施例では、同様に、ファイルシステム−1を構成する論理ディスク180にはLUN−6が与えられ、且つ、ファイルシステム−2を構成する論理ディスク190にはLUN−7が与えられ、そして更に、LUN−6とLUN−7より構成される2つのファイルシステム−1とファイルシステム−2の全体に対して、グループ化された新たな論理ユニット番号として、LUN−30を与える。そして、このLUN−30は、個々の論理ディスクに対するLUNと異なり、グループ化された論理ユニット番号であることを示す属性(G−LUN)を有する。
このように、個々の論理ディスクに対するLUNにさらに加えて、2つのファイルシステム−1とファイルシステム−2の全体に対して、グループ化された論理ユニット番号LUN−30を与えることにより、サーバは、このグループ化された論理ユニット番号LUN−30を用いて、2つのファイルシステム−1とファイルシステム−2の全体に対して要求を送ることができる。そして、これにより、サーバは、従来は複数の個々のLUNに対する要求を行っていたが、本発明により、グループ化された論理ユニット番号LUN−30に対する1つの要求により、一度で処理することができるようにすることができる。
次に、本発明に従って、グループ化された論理ユニット番号を割当てることにより、複数の論理ユニットをグループ化する方法の実施例について、図3、図4、図5、図6を用いて説明する。
図3は、本発明の一実施例のシステム構成を示すブロック図である。図3に示されたシステムは、サーバ350、物理ディスク装置300、301、311、320、330、331,332及び、340、RAIDコントローラ370、ネットワーク360、より構成される。サーバ350とRAIDコントローラ370は、ネットワーク360に接続されている。また、物理ディスク装置300、301、311、320、330、331,332及び、340は、RAIDコントローラ370に接続され、RAIDコントローラ370から制御される。
RAIDコントローラ370には、(1)複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブル、(2)上記管理テーブルを生成及び保守する処理、(3)G−LUNに対する要求を、個々のLUNに要求する処理及び、(4)個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理が組み込まれる。
先ず最初に、(1)の管理テーブル及び(2)の管理テーブルを生成及び保守する処理について説明する。
図4と図5は、上述の(1)に示された、複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブルの一実施例を示す図である。
図4に示された管理テーブルの第1の実施例は、LUN(論理ユニット番号)欄401、G−LUN表示欄402及び、LUNの構成情報欄403より構成される。LUN番号欄401には、各LUNの番号が示される。G−LUN表示欄402は、対応するLUN番号が、グループ化された論理ユニット番号(G−LUN)であるかどうかを示すフラグ等の情報を記述する。図4に示された本実施例では、LUN番号10と11がG−LUNであることが示されている。LUNの構成情報欄403は、LUNがG−LUNでない場合には、各物理ディスク装置の識別情報を記述する。
例えば、図4に示された管理テーブルの第1の実施例では、LUNが0の論理ディスクは、G−LUNではなく、且つ、物理ディスク00より構成されることを示す。また、LUNが1の論理ディスクは、G−LUNではなく、且つ、物理ディスク10と物理ディスク11より構成されることを示す。LUNが2の論理ディスクは、G−LUNではなく、且つ、物理ディスク20より構成されることを示す。LUNが3の論理ディスクは、G−LUNではなく、且つ、物理ディスク30と物理ディスク31及び、物理ディスク32より構成されることを示す。また、LUNが4の論理ディスクは、G−LUNではなく、且つ、物理ディスク40より構成されることを示す。
一方、グループ化された論理ユニット番号(G−LUN)であることが示された、LUNが10の論理ディスクは、LUNが0の論理ディスクとLUNが2の論理ディスクとLUNが4の論理ディスクとより構成されることが、LUNの構成情報欄403に示されている。このように、グループ化された論理ユニット番号(G−LUN)に対しては、LUNの構成情報欄403には、それを構成するLUNを有する論理ディスクの識別情報が記述される。同様に、グループ化された論理ユニット番号(G−LUN)であることが示された、LUNが11の論理ディスクは、LUNが1の論理ディスクとLUNが3の論理ディスクとより構成されることが示されている。
図4に示された実施例のように、通常のLUNで使用しているLUN番号が1、2、3及び、4の場合には、G−LUNとして割当てるLUNは、通常のLUNで使用さていない、4より大きいLUN番号(例えば、本実施例では10及び11)を利用する。このように、G−LUNを、通常のLUNとしては使用しない、空きLUNに割当てるとすることで、サーバが、新たな方法を使用して、論理ディスクがグループ化された論理ユニット番号(G−LUN)を有するということを認識することが不要となる。
次に、管理テーブルの第2の実施例を図5を用いて説明する。図5に示された管理テーブルの第2の実施例は、LUN(論理ユニット番号)欄501、G−LUN表示欄502及び、LUNの構成情報欄503より構成される。LUN番号欄501には、各LUNの番号が示される。G−LUN表示欄502は、対応するLUN番号が、グループ化された論理ユニット番号(G−LUN)であるかどうかを示すフラグ等の情報を記述する。図5に示された管理テーブルの第2の実施例では、LUN番号10と11がG−LUNであることを示す。LUNの構成情報欄503は、LUNがG−LUNでない場合には、各物理ディスク装置の識別情報を記述する。
図5に示された管理テーブルの第2の実施例と、図4に示された管理テーブルの第1の実施例との違いは、図4に示された管理テーブルの第1の実施例では、同一のLUNが複数個登録され、同一のLUNに対応するLUNの構成情報欄403に異なる物理ディスクの識別情報又はG−LUNを構成するLUNを有する論理ディスクの識別情報が記述されているのに対して、図5に示された管理テーブルの第2の実施例では、同一のLUNが1個のみ登録され、そのLUNに対応するLUNの構成情報欄503に複数の物理ディスクの識別情報又はG−LUNを構成するLUNを有する論理ディスクの識別情報が記述されていることである。なおグループ化された論理ユニット番号(G−LUN)に対しては、図4に示された管理テーブルの第1の実施例と同様に、LUNの構成情報欄503には、それを構成するLUNを有する論理ディスクの識別情報が記述される。
次に、前述の(2)の管理テーブルを生成及び保守する処理について説明する。図6は、管理テーブルを生成及び保守する処理のフローチャートを示す図である。
ステップ601で、処理が開始する。
次に、ステップ602で、図3に示されたRAIDコントローラ370は、RAIDコントローラ370に接続された各物理ディスク装置300、301、311、320、330、331,332及び、340の構成を、ネットワーク360を介してサーバに送り、サーバ350のモニタ上に表示する。
次に、ステップ603で、サーバ350のユーザが、サーバ350のモニタ上に表示された各物理ディスク装置にLUNを割当てる。
次に、ステップ604で、RAIDコントローラ370は、ユーザが物理ディスク装置に割当てたLUNを、サーバ350のモニタ上に表示する。
次に、ステップ605で、サーバ350のユーザが、モニタ上に表示されたLUNに対して、G−LUNを割当てる。
そして、最後に、ステップ606で、上述の物理ディスク装置に割当てたLUN、LUNに対して割当てられたG−LUN、及び、各LUNを構成する物理ディスク装置の識別情報又はG−LUNを構成するLUNを有する論理ディスクの識別情報を、図4又は図5を用いて説明したような管理テーブルとして、RAIDコントローラ370が記憶する。
以上のように、各LUNに対して、G−LUNを割当て且つ管理テーブルとして保守することができる。
次に、前述の、(3)G−LUNに対する要求を、個々のLUNに要求する処理及び、(4)個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理について、図7を参照して説明する。
図7は、G−LUNに対する要求を、個々のLUNに要求する処理及び、個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理のフローチャートを示す。本実施例では、サーバから、どのような動作の要求が行われた場合にも、同様に実行することができる。
ステップ701で、LUNに対する所定の動作を実行する要求が、図3のサーバ350から発行される。
次に、図3のRAIDコントローラ370は、ステップ702で、LUNに対する所定の動作を実行する要求が、G−LUNに対するものであるかどうかを検査する。LUNに対する所定の動作の要求が、G−LUNに対するものであるかどうかは、前述の図4又は図5に示された管理テーブルを参照して、サーバからの要求に対応するLUNのG−LUN情報により、判断することができる。サーバからの要求が、G−LUNに対するものでない場合には、処理はステップ703に進む。
次に、ステップ703では、RAIDコントローラ370は、1つのLUNに対してLUNの所定の動作を実行する要求を行う。そして、処理は、ステップ704に進む。
次に、ステップ704では、RAIDコントローラ370は、ステップ703で行ったLUNの所定の動作を実行する要求に対して、その所定の動作の実行の完了を待つ。そして、LUNの所定の動作を実行が完了するとステップ709に進み、LUNの所定の動作を実行する要求に対する処理は終了する。
一方、ステップ702で、図3のRAIDコントローラ370が、サーバからのLUNに対する所定の動作を実行する要求が、G−LUNに対するものである場合には、処理はステップ705に進む。
ステップ705では、図3のRAIDコントローラ370が、G−LUNを構成する1つのLUNに対して、LUNの所定の動作を実行する要求を行う。そして、処理は、ステップ706に進む。
ステップ706では、G−LUNを構成する全てのLUNに対して、LUNの所定の動作を実行する要求を発行したかどうかを検査する。全てのLUNに対して、LUNの所定の動作を実行する要求を発行したかどうかは、前述の図4又は図5に示された管理テーブルを参照して、サーバからの要求に対応するLUNのG−LUN情報により、判断することができる。例えば、図4に示された管理テーブルを使用する場合には、管理テーブルの上から下に向かって、例えば、LUNが10の論理ディスクを構成するLUNに対して処理を実行する要求を発行し、LUNが10から11になった時に、全てのLUNに対して、LUNの所定の動作を実行する要求の発行が完了したと判断する。また、例えば、図5に示された管理テーブルを使用する場合には、例えば、LUNが10に対応するLUNの構成情報503に示された全てのLUNに対して、LUNの所定の動作を実行する要求を発行したときに、LUNの所定の動作を実行する要求の発行が完了したと判断する。まだ、G−LUNを構成する全てのLUNに対して、LUNの所定の動作を実行する要求を発行していない場合には、再びステップ705に進み、G−LUNを構成する次のLUNに対してLUNの所定の動作を実行する要求を行う。そして、処理は、ステップ706に進む。以上の、ステップ705とステップ706の処理を、G−LUNを構成する全てのLUNに対し実行する。
次に、処理はステップ707へ進む。ステップ707では、図3のRAIDコントローラ370は、ステップ705で行ったLUNの所定の動作を実行する要求に対して、その所定の動作の実行の完了を待つ。そして、1つのLUNの所定の動作の実行が完了するとステップ708に進み、全てのLUNが、LUNの所定の動作の実行を完了したかどうかを検査する。全てのLUNが、LUNの所定の動作の実行を完了したかどうかは、前述の図4又は図5に示された管理テーブルを参照して、サーバからの要求に対応するLUNのG−LUN情報により、判断することができる。例えば、図4に示された管理テーブルを使用する場合には、管理テーブルの上から下に向かって、例えば、LUNが10の論理ディスクを構成するLUNに対して処理の完了を受取った時に、全てのLUNに対して、LUNの所定の動作を実行する要求の処理が完了したと判断する。また、例えば、図5に示された管理テーブルを使用する場合には、例えば、LUNが10に対応するLUNの構成情報503に示された全てのLUNに対して、LUNの所定の動作の処理の完了を受け取ったときに、LUNの所定の動作の実行が完了したと判断する。ステップ708で、まだ、全てのLUNが、LUNの所定の動作の実行を完了していないと判断する場合には、処理はステップ707に進み、ステップ703で行ったLUNの所定の動作を実行する要求に対して、その所定の動作の実行の完了を待つ。そして、1つのLUNの所定の動作の実行が完了するとステップ708に進み、ステップ708で、全てのLUNが、LUNの所定の動作の実行を完了したと判断する場合には、G−LUNの属性を有するLUNの所定の動作を実行する要求に対する処理は終了する。
以上のように、G−LUNに対する要求を、個々のLUNに要求する処理及び、個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理を実行することができる。
以上説明したように、サーバは、複数のLUNに対して一度の要求で操作を行うことができるので、関連するLUNの退避や所定の動作をハード的に同時に処理することが可能となる。これにより、複数のLUNの処理間の同期を、完全に制御できる。
また、これにより、複数のLUNにわたって論理的な関係を有するLUNの退避や複写などの要求を、複数のLUNの間で同期して実施することができる。
図2A、図2B及び、図2Cは、本発明の実施例を示す図である。
図2Aは、前述の図1Aで示されたデータベース110に対して、1つのグループ化されたLUNを割当てる実施例を示す。前述の図1Aで示されたデータベース110は、LUN−1を有する論理ディスク120とLUN−2を有する論理ディスク130より構成されている。本実施例では、個々の論理ディスク120と論理ディスク130には、同様にそれぞれ、LUN−1とLUN−2が与えられ、更に、LUN−1とLUN−2より構成されるデータベース110全体に、グループ化された新たな論理ユニット番号として、LUN−10を与える。そして、このLUN−10は、個々の論理ディスクに対するLUNと異なり、グループ化された論理ユニット番号であることを示す属性(G−LUN)を有する。
このように、個々の論理ディスクに対するLUNにさらに加えて、データベース110に全体として、グループ化された論理ユニット番号LUN−10を与えることにより、サーバは、このグループ化された論理ユニット番号LUN−10を用いて、データベース110に対して要求を送ることができる。そして、これにより、サーバは、従来は複数の個々のLUNに対する要求を行っていたが、本発明により、グループ化された論理ユニット番号LUN−10に対する1つの要求により、一度で処理することができるようにすることができる。
図2Bは、前述の図1Bで示されたファイルシステム140に対して、1つのグループ化されたLUNを割当てる実施例を示す。前述の図1Bで示されたファイルシステム140は、LUN−3を有する論理ディスク150とLUN−4を有する論理ディスク160とLUN−5を有する論理ディスク170より構成されている。本実施例では、個々の論理ディスク150、160及び170には、同様にそれぞれ、LUN−3、LUN−4及び、LUN−5が与えられ、更に、LUN−3、LUN−4及び、LUN−5より構成されるファイルシステム140全体に、グループ化された新たな論理ユニット番号として、LUN−20を与える。そして、このLUN−20は、個々の論理ディスクに対するLUNと異なり、グループ化された論理ユニット番号であることを示す属性(G−LUN)を有する。
このように、個々の論理ディスクに対するLUNにさらに加えて、ファイルシステム140に、グループ化された論理ユニット番号LUN−20を与えることにより、サーバは、このグループ化された論理ユニット番号LUN−20を用いて、データベース110に対して要求を送ることができる。そして、これにより、サーバは、従来は複数の個々のLUNに対する要求を、グループ化された論理ユニット番号LUN−20に対する1つの要求を行っていたが、本発明により、一度で処理することができるようにすることができる。
図2Cは、前述の図1Cで示されたサーバ上で動作するアプリケーションが、複数の異なるファイルシステム使用している場合の実施例を示す。前述の図1Cで示されたファイルシステム−1は、LUN−6を有する論理ディスク180により構成され、そして、ファイルシステム−2は、LUN−7を有する論理ディスク190より構成されている。本実施例では、同様に、ファイルシステム−1を構成する論理ディスク180にはLUN−6が与えられ、且つ、ファイルシステム−2を構成する論理ディスク190にはLUN−7が与えられ、そして更に、LUN−6とLUN−7より構成される2つのファイルシステム−1とファイルシステム−2の全体に対して、グループ化された新たな論理ユニット番号として、LUN−30を与える。そして、このLUN−30は、個々の論理ディスクに対するLUNと異なり、グループ化された論理ユニット番号であることを示す属性(G−LUN)を有する。
このように、個々の論理ディスクに対するLUNにさらに加えて、2つのファイルシステム−1とファイルシステム−2の全体に対して、グループ化された論理ユニット番号LUN−30を与えることにより、サーバは、このグループ化された論理ユニット番号LUN−30を用いて、2つのファイルシステム−1とファイルシステム−2の全体に対して要求を送ることができる。そして、これにより、サーバは、従来は複数の個々のLUNに対する要求を行っていたが、本発明により、グループ化された論理ユニット番号LUN−30に対する1つの要求により、一度で処理することができるようにすることができる。
次に、本発明に従って、グループ化された論理ユニット番号を割当てることにより、複数の論理ユニットをグループ化する方法の実施例について、図3、図4、図5、図6を用いて説明する。
図3は、本発明の一実施例のシステム構成を示すブロック図である。図3に示されたシステムは、サーバ350、物理ディスク装置300、301、311、320、330、331,332及び、340、RAIDコントローラ370、ネットワーク360、より構成される。サーバ350とRAIDコントローラ370は、ネットワーク360に接続されている。また、物理ディスク装置300、301、311、320、330、331,332及び、340は、RAIDコントローラ370に接続され、RAIDコントローラ370から制御される。
RAIDコントローラ370には、(1)複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブル、(2)上記管理テーブルを生成及び保守する処理、(3)G−LUNに対する要求を、個々のLUNに要求する処理及び、(4)個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理が組み込まれる。
先ず最初に、(1)の管理テーブル及び(2)の管理テーブルを生成及び保守する処理について説明する。
図4と図5は、上述の(1)に示された、複数のLUNを1つのグループ化された論理ユニット番号(G−LUN)として管理するための管理テーブルの一実施例を示す図である。
図4に示された管理テーブルの第1の実施例は、LUN(論理ユニット番号)欄401、G−LUN表示欄402及び、LUNの構成情報欄403より構成される。LUN番号欄401には、各LUNの番号が示される。G−LUN表示欄402は、対応するLUN番号が、グループ化された論理ユニット番号(G−LUN)であるかどうかを示すフラグ等の情報を記述する。図4に示された本実施例では、LUN番号10と11がG−LUNであることが示されている。LUNの構成情報欄403は、LUNがG−LUNでない場合には、各物理ディスク装置の識別情報を記述する。
例えば、図4に示された管理テーブルの第1の実施例では、LUNが0の論理ディスクは、G−LUNではなく、且つ、物理ディスク00より構成されることを示す。また、LUNが1の論理ディスクは、G−LUNではなく、且つ、物理ディスク10と物理ディスク11より構成されることを示す。LUNが2の論理ディスクは、G−LUNではなく、且つ、物理ディスク20より構成されることを示す。LUNが3の論理ディスクは、G−LUNではなく、且つ、物理ディスク30と物理ディスク31及び、物理ディスク32より構成されることを示す。また、LUNが4の論理ディスクは、G−LUNではなく、且つ、物理ディスク40より構成されることを示す。
一方、グループ化された論理ユニット番号(G−LUN)であることが示された、LUNが10の論理ディスクは、LUNが0の論理ディスクとLUNが2の論理ディスクとLUNが4の論理ディスクとより構成されることが、LUNの構成情報欄403に示されている。このように、グループ化された論理ユニット番号(G−LUN)に対しては、LUNの構成情報欄403には、それを構成するLUNを有する論理ディスクの識別情報が記述される。同様に、グループ化された論理ユニット番号(G−LUN)であることが示された、LUNが11の論理ディスクは、LUNが1の論理ディスクとLUNが3の論理ディスクとより構成されることが示されている。
図4に示された実施例のように、通常のLUNで使用しているLUN番号が1、2、3及び、4の場合には、G−LUNとして割当てるLUNは、通常のLUNで使用さていない、4より大きいLUN番号(例えば、本実施例では10及び11)を利用する。このように、G−LUNを、通常のLUNとしては使用しない、空きLUNに割当てるとすることで、サーバが、新たな方法を使用して、論理ディスクがグループ化された論理ユニット番号(G−LUN)を有するということを認識することが不要となる。
次に、管理テーブルの第2の実施例を図5を用いて説明する。図5に示された管理テーブルの第2の実施例は、LUN(論理ユニット番号)欄501、G−LUN表示欄502及び、LUNの構成情報欄503より構成される。LUN番号欄501には、各LUNの番号が示される。G−LUN表示欄502は、対応するLUN番号が、グループ化された論理ユニット番号(G−LUN)であるかどうかを示すフラグ等の情報を記述する。図5に示された管理テーブルの第2の実施例では、LUN番号10と11がG−LUNであることを示す。LUNの構成情報欄503は、LUNがG−LUNでない場合には、各物理ディスク装置の識別情報を記述する。
図5に示された管理テーブルの第2の実施例と、図4に示された管理テーブルの第1の実施例との違いは、図4に示された管理テーブルの第1の実施例では、同一のLUNが複数個登録され、同一のLUNに対応するLUNの構成情報欄403に異なる物理ディスクの識別情報又はG−LUNを構成するLUNを有する論理ディスクの識別情報が記述されているのに対して、図5に示された管理テーブルの第2の実施例では、同一のLUNが1個のみ登録され、そのLUNに対応するLUNの構成情報欄503に複数の物理ディスクの識別情報又はG−LUNを構成するLUNを有する論理ディスクの識別情報が記述されていることである。なおグループ化された論理ユニット番号(G−LUN)に対しては、図4に示された管理テーブルの第1の実施例と同様に、LUNの構成情報欄503には、それを構成するLUNを有する論理ディスクの識別情報が記述される。
次に、前述の(2)の管理テーブルを生成及び保守する処理について説明する。図6は、管理テーブルを生成及び保守する処理のフローチャートを示す図である。
ステップ601で、処理が開始する。
次に、ステップ602で、図3に示されたRAIDコントローラ370は、RAIDコントローラ370に接続された各物理ディスク装置300、301、311、320、330、331,332及び、340の構成を、ネットワーク360を介してサーバに送り、サーバ350のモニタ上に表示する。
次に、ステップ603で、サーバ350のユーザが、サーバ350のモニタ上に表示された各物理ディスク装置にLUNを割当てる。
次に、ステップ604で、RAIDコントローラ370は、ユーザが物理ディスク装置に割当てたLUNを、サーバ350のモニタ上に表示する。
次に、ステップ605で、サーバ350のユーザが、モニタ上に表示されたLUNに対して、G−LUNを割当てる。
そして、最後に、ステップ606で、上述の物理ディスク装置に割当てたLUN、LUNに対して割当てられたG−LUN、及び、各LUNを構成する物理ディスク装置の識別情報又はG−LUNを構成するLUNを有する論理ディスクの識別情報を、図4又は図5を用いて説明したような管理テーブルとして、RAIDコントローラ370が記憶する。
以上のように、各LUNに対して、G−LUNを割当て且つ管理テーブルとして保守することができる。
次に、前述の、(3)G−LUNに対する要求を、個々のLUNに要求する処理及び、(4)個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理について、図7を参照して説明する。
図7は、G−LUNに対する要求を、個々のLUNに要求する処理及び、個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理のフローチャートを示す。本実施例では、サーバから、どのような動作の要求が行われた場合にも、同様に実行することができる。
ステップ701で、LUNに対する所定の動作を実行する要求が、図3のサーバ350から発行される。
次に、図3のRAIDコントローラ370は、ステップ702で、LUNに対する所定の動作を実行する要求が、G−LUNに対するものであるかどうかを検査する。LUNに対する所定の動作の要求が、G−LUNに対するものであるかどうかは、前述の図4又は図5に示された管理テーブルを参照して、サーバからの要求に対応するLUNのG−LUN情報により、判断することができる。サーバからの要求が、G−LUNに対するものでない場合には、処理はステップ703に進む。
次に、ステップ703では、RAIDコントローラ370は、1つのLUNに対してLUNの所定の動作を実行する要求を行う。そして、処理は、ステップ704に進む。
次に、ステップ704では、RAIDコントローラ370は、ステップ703で行ったLUNの所定の動作を実行する要求に対して、その所定の動作の実行の完了を待つ。そして、LUNの所定の動作を実行が完了するとステップ709に進み、LUNの所定の動作を実行する要求に対する処理は終了する。
一方、ステップ702で、図3のRAIDコントローラ370が、サーバからのLUNに対する所定の動作を実行する要求が、G−LUNに対するものである場合には、処理はステップ705に進む。
ステップ705では、図3のRAIDコントローラ370が、G−LUNを構成する1つのLUNに対して、LUNの所定の動作を実行する要求を行う。そして、処理は、ステップ706に進む。
ステップ706では、G−LUNを構成する全てのLUNに対して、LUNの所定の動作を実行する要求を発行したかどうかを検査する。全てのLUNに対して、LUNの所定の動作を実行する要求を発行したかどうかは、前述の図4又は図5に示された管理テーブルを参照して、サーバからの要求に対応するLUNのG−LUN情報により、判断することができる。例えば、図4に示された管理テーブルを使用する場合には、管理テーブルの上から下に向かって、例えば、LUNが10の論理ディスクを構成するLUNに対して処理を実行する要求を発行し、LUNが10から11になった時に、全てのLUNに対して、LUNの所定の動作を実行する要求の発行が完了したと判断する。また、例えば、図5に示された管理テーブルを使用する場合には、例えば、LUNが10に対応するLUNの構成情報503に示された全てのLUNに対して、LUNの所定の動作を実行する要求を発行したときに、LUNの所定の動作を実行する要求の発行が完了したと判断する。まだ、G−LUNを構成する全てのLUNに対して、LUNの所定の動作を実行する要求を発行していない場合には、再びステップ705に進み、G−LUNを構成する次のLUNに対してLUNの所定の動作を実行する要求を行う。そして、処理は、ステップ706に進む。以上の、ステップ705とステップ706の処理を、G−LUNを構成する全てのLUNに対し実行する。
次に、処理はステップ707へ進む。ステップ707では、図3のRAIDコントローラ370は、ステップ705で行ったLUNの所定の動作を実行する要求に対して、その所定の動作の実行の完了を待つ。そして、1つのLUNの所定の動作の実行が完了するとステップ708に進み、全てのLUNが、LUNの所定の動作の実行を完了したかどうかを検査する。全てのLUNが、LUNの所定の動作の実行を完了したかどうかは、前述の図4又は図5に示された管理テーブルを参照して、サーバからの要求に対応するLUNのG−LUN情報により、判断することができる。例えば、図4に示された管理テーブルを使用する場合には、管理テーブルの上から下に向かって、例えば、LUNが10の論理ディスクを構成するLUNに対して処理の完了を受取った時に、全てのLUNに対して、LUNの所定の動作を実行する要求の処理が完了したと判断する。また、例えば、図5に示された管理テーブルを使用する場合には、例えば、LUNが10に対応するLUNの構成情報503に示された全てのLUNに対して、LUNの所定の動作の処理の完了を受け取ったときに、LUNの所定の動作の実行が完了したと判断する。ステップ708で、まだ、全てのLUNが、LUNの所定の動作の実行を完了していないと判断する場合には、処理はステップ707に進み、ステップ703で行ったLUNの所定の動作を実行する要求に対して、その所定の動作の実行の完了を待つ。そして、1つのLUNの所定の動作の実行が完了するとステップ708に進み、ステップ708で、全てのLUNが、LUNの所定の動作の実行を完了したと判断する場合には、G−LUNの属性を有するLUNの所定の動作を実行する要求に対する処理は終了する。
以上のように、G−LUNに対する要求を、個々のLUNに要求する処理及び、個々のLUNの処理完了を検出し、G−LUNへの要求を完了させる処理を実行することができる。
以上説明したように、サーバは、複数のLUNに対して一度の要求で操作を行うことができるので、関連するLUNの退避や所定の動作をハード的に同時に処理することが可能となる。これにより、複数のLUNの処理間の同期を、完全に制御できる。
また、これにより、複数のLUNにわたって論理的な関係を有するLUNの退避や複写などの要求を、複数のLUNの間で同期して実施することができる。
Claims (14)
- 各々が論理ユニット番号を有する複数の論理ユニットを選択するステップと、
前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てるステップを有する、複数の論理ユニットをグループ化する方法。 - 前記グループ化された論理ユニット番号を割当てるステップは、前記論理ユニット番号と、前記論理ユニット番号が前記グループ化された論理ユニット番号であるかどうかを示す情報と、前記論理ユニットを構成する物理的装置の識別情報又は前記グループを構成する前記論理ユニットを識別する情報を記述する、管理テーブルを作成することを特徴とする、請求項1に記載の複数の論理ユニットをグループ化する方法。
- 更に、前記管理テーブルを記憶するステップを有することを特徴とする、請求項2に記載の複数の論理ユニットをグループ化する方法。
- 前記論理ユニットは、論理ディスクである請求項1に記載の複数の論理ユニットをグループ化する方法。
- 前記論理ユニットは論理ディスクであり、前記物理的装置は物理ディスク装置である、請求項2あるいは3に記載の、複数の論理ユニットをグループ化する方法。
- 各々が論理ユニット番号を有する複数の論理ユニットを選択するステップを有し、
前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てるステップを有し、前記グループ化された論理ユニット番号を割当てるステップは、前記論理ユニット番号と、前記論理ユニット番号が前記グループ化された論理ユニット番号であるかどうかを示す情報と、前記論理ユニットを構成する物理的装置の識別情報又は前記グループを構成する前記論理ユニットを識別する情報を記述する、管理テーブルを作成し、
前記グループ化された論理ユニット番号を用いて所定の動作を実行する要求を受信した場合には、前記管理テーブルに記述された前記グループを構成する全ての前記論理ユニットに、前記所定の動作を実行する要求を発行するステップを有し、
前記全ての論理ユニットが、前記所定の動作の実行を完了したことを判断するステップとを有する、受信した要求の処理方法。 - 前記論理ユニットは論理ディスクであり、前記物理的装置は物理ディスク装置である、請求項6に記載の、受信した要求の処理方法。
- 各々が論理ユニット番号を有する複数の論理ユニットを選択する手段と、
前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てる手段を有する、複数の論理ユニットをグループ化する装置。 - 前記グループ化された論理ユニット番号を割当てる手段は、前記論理ユニット番号と、前記論理ユニット番号が前記グループ化された論理ユニット番号であるかどうかを示す情報と、前記論理ユニットを構成する物理的装置の識別情報又は前記グループを構成する前記論理ユニットを識別する情報を記述する、管理テーブルを作成することを特徴とする、請求項8に記載の複数の論理ユニットをグループ化する装置。
- 更に、前記管理テーブルを記憶する手段を有することを特徴とする、請求項9に記載の複数の論理ユニットをグループ化する装置。
- 前記論理ユニットは、論理ディスクである請求項8に記載の複数の論理ユニットをグループ化する装置。
- 前記論理ユニットは論理ディスクであり、前記物理的装置は物理ディスク装置である、請求項9あるいは10に記載の、複数の論理ユニットをグループ化する装置。
- 各々が論理ユニット番号を有する複数の論理ユニットを選択する手段を有し、
前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てる手段を有し、前記グループ化された論理ユニット番号を割当てる手段は、前記論理ユニット番号と、前記論理ユニット番号が前記グループ化された論理ユニット番号であるかどうかを示す情報と、前記論理ユニットを構成する物理的装置の識別情報又は前記グループを構成する前記論理ユニットを識別する情報を記述する、管理テーブルを作成し、
前記グループ化された論理ユニット番号を用いて所定の動作を実行する要求を受信した場合には、前記管理テーブルに記述された前記グループを構成する全ての前記論理ユニットに、前記所定の動作を実行する要求を発行する手段を有し、
前記全ての論理ユニットが、前記所定の動作の実行を完了したことを判断する手段とを有する、受信した要求の処理装置。 - 前記論理ユニットは論理ディスクであり、前記物理的装置は物理ディスク装置である、請求項13に記載の、受信した要求の処理装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2003/008805 WO2005006175A1 (ja) | 2003-07-10 | 2003-07-10 | 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2005006175A1 true JPWO2005006175A1 (ja) | 2006-08-24 |
Family
ID=34044613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005503857A Withdrawn JPWO2005006175A1 (ja) | 2003-07-10 | 2003-07-10 | 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20060112223A1 (ja) |
EP (1) | EP1645952A4 (ja) |
JP (1) | JPWO2005006175A1 (ja) |
WO (1) | WO2005006175A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180121091A1 (en) * | 2015-03-31 | 2018-05-03 | Hitachi, Ltd. | Storage apparatus and its control method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09305328A (ja) * | 1996-05-13 | 1997-11-28 | Fujitsu Ltd | ディスクアレイ装置 |
US6542961B1 (en) * | 1998-12-22 | 2003-04-01 | Hitachi, Ltd. | Disk storage system including a switch |
JP2000242434A (ja) * | 1998-12-22 | 2000-09-08 | Hitachi Ltd | 記憶装置システム |
US6684209B1 (en) * | 2000-01-14 | 2004-01-27 | Hitachi, Ltd. | Security method and system for storage subsystem |
US20020104008A1 (en) * | 2000-11-30 | 2002-08-01 | Cochran Robert A. | Method and system for securing control-device-lun-mediated access to luns provided by a mass storage device |
US6684313B2 (en) * | 2001-08-15 | 2004-01-27 | Hewlett-Packard Development Company, L.P. | Managing storage contention in automated storage systems |
US7171434B2 (en) * | 2001-09-07 | 2007-01-30 | Network Appliance, Inc. | Detecting unavailability of primary central processing element, each backup central processing element associated with a group of virtual logic units and quiescing I/O operations of the primary central processing element in a storage virtualization system |
US7111084B2 (en) * | 2001-12-28 | 2006-09-19 | Hewlett-Packard Development Company, L.P. | Data storage network with host transparent failover controlled by host bus adapter |
JP4139675B2 (ja) * | 2002-11-14 | 2008-08-27 | 株式会社日立製作所 | 仮想ボリュームの記憶領域割当方法、その装置及びプログラム |
-
2003
- 2003-07-10 EP EP03817426A patent/EP1645952A4/en not_active Withdrawn
- 2003-07-10 JP JP2005503857A patent/JPWO2005006175A1/ja not_active Withdrawn
- 2003-07-10 WO PCT/JP2003/008805 patent/WO2005006175A1/ja not_active Application Discontinuation
-
2006
- 2006-01-05 US US11/325,442 patent/US20060112223A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2005006175A1 (ja) | 2005-01-20 |
US20060112223A1 (en) | 2006-05-25 |
EP1645952A4 (en) | 2007-04-18 |
EP1645952A1 (en) | 2006-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7096336B2 (en) | Information processing system and management device | |
US7478177B2 (en) | System and method for automatic reassignment of shared storage on blade replacement | |
JP4889985B2 (ja) | ストレージ階層を考慮したボリュームグループを管理する方法 | |
US7464232B2 (en) | Data migration and copying in a storage system with dynamically expansible volumes | |
US8533419B2 (en) | Method for controlling data write to virtual logical volume conforming to thin provisioning, and storage apparatus | |
JP4733461B2 (ja) | 計算機システム、管理計算機及び論理記憶領域の管理方法 | |
JP5771280B2 (ja) | 計算機システム及びストレージ管理方法 | |
JP4235220B2 (ja) | 計算機システムおよびデータ移行方法 | |
JP4920898B2 (ja) | 計算機システム、データ管理方法およびプログラム | |
JP2009238114A (ja) | ストレージ管理方法、ストレージ管理プログラム、ストレージ管理装置およびストレージ管理システム | |
JP2009104421A (ja) | ストレージアクセス装置 | |
US20070294476A1 (en) | Method For Representing Foreign RAID Configurations | |
JP2007133807A (ja) | データ処理システム、ストレージ装置及び管理装置 | |
JP5317495B2 (ja) | ストレージシステム、コピー方法及び正側のストレージ装置 | |
US9977613B2 (en) | Systems and methods for zone page allocation for shingled media recording disks | |
JPWO2005006175A1 (ja) | 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 | |
US20200050388A1 (en) | Information system | |
JP3766079B2 (ja) | ディスクアレイ装置およびプログラム | |
JP2006113826A (ja) | 外部の装置に接続される制御装置 | |
US10042572B1 (en) | Optimal data storage configuration | |
JP2006003973A (ja) | ストレージ装置とその論理記憶装置割り当て制御方法 | |
JP2018018271A (ja) | ストレージ制御装置、ストレージシステムおよびストレージ制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20070531 |