WO2005006175A1 - 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 - Google Patents

複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 Download PDF

Info

Publication number
WO2005006175A1
WO2005006175A1 PCT/JP2003/008805 JP0308805W WO2005006175A1 WO 2005006175 A1 WO2005006175 A1 WO 2005006175A1 JP 0308805 W JP0308805 W JP 0308805W WO 2005006175 A1 WO2005006175 A1 WO 2005006175A1
Authority
WO
WIPO (PCT)
Prior art keywords
logical
logical unit
lun
unit number
grouped
Prior art date
Application number
PCT/JP2003/008805
Other languages
English (en)
French (fr)
Inventor
Fumiyoshi Karube
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to EP03817426A priority Critical patent/EP1645952A4/en
Priority to PCT/JP2003/008805 priority patent/WO2005006175A1/ja
Priority to JP2005503857A priority patent/JPWO2005006175A1/ja
Publication of WO2005006175A1 publication Critical patent/WO2005006175A1/ja
Priority to US11/325,442 priority patent/US20060112223A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Definitions

  • the present invention relates to a system composed of a plurality of logical units, and in particular, to a method for grouping a plurality of logical units, a method for processing a received request, an apparatus for grouping a plurality of logical units, and a receiving apparatus.
  • a method for grouping a plurality of logical units a method for processing a received request
  • an apparatus for grouping a plurality of logical units a receiving apparatus.
  • a large-capacity disk device such as a RAID (Redundant Array of Inexiven Divesks) device incorporates a number of physical disk devices, and they constitute a logical disk.
  • the large-capacity disk device is open to the server so that the server can use it.
  • the large-capacity disk device is disclosed to the server as a logical disk having a LUN (Logical Unit Number, logical unit number).
  • the server recognizes this LUN, accesses the logical disk using the LUN, accesses the physical disks that make up the logical disk, and builds a database file system on this LUN. .
  • LUN Logical Unit Number, logical unit number
  • the database 110 in FIG. 1A includes a logical disk 120 having LUN-1 and a logical disk 130 having LUN-2.
  • the logical disk 120 is composed of physical disk devices 121 to 126 using a method such as RAID 5 from RAI DO.
  • the logical disk 130 is composed of physical disk devices 131 to 136 using a method such as RAIDO to RAID5.
  • the database entity may be stored on a logical disk having LUN-1 and the operating system may be stored on a logical disk having LUN-2.
  • the file system 140 of FIG. 1B includes a logical disk 150 having LUN-3, a logical disk 160 having LUN-4, and a logical disk 170 having LUN-5. It is composed of The logical disk 150 is composed of physical disk devices 151 to 156 using a method such as RAIDO to RAID5. The logical disk 160 is composed of physical disk devices 161 to 166 using a method such as RAI DO to RA ID5.
  • FIG. 1C shows two file systems, a file system 1 and a file system 2.
  • the file system 1 is composed of a logical disk having a LUN 6
  • the file system 1 2 is composed of a logical disk having LUN-7.
  • the logical disk 180 is composed of physical disk units 181 to 186 using a method such as 1100 to 1 ID5.
  • the logical disk 190 is composed of physical disk units 191 to 196 using a method such as RAIDO to RAID5.
  • the application stores logically related data on different LUNs, such as a file on logical disk 180 of LUN-6 and a file on logical disk 190 of LUN-7. In different files.
  • LUNs such as database 110, file system 140, and file system 11 and file system 12 as shown in FIGS. 1A to 1C above.
  • the current RAID devices that make up each logical disk in a disk system are configured to be managed only by individually assigned LUNs. Therefore, as described above, even if the software running on the server logically needs to make a batch request for multiple LUNs, the server will Processing must be performed as a request.
  • the RAID device is equipped with an OPC (One Point Coy) function for copying a LUN instantaneously.
  • OPC One Point Coy
  • Patent Document 1 describes an extension that controls multiple logical volumes as one extended logical unit. Disclose the LUN.
  • Patent Document 2 discloses a method in which a RAID device copies data in units of extended logical units.
  • Patent Document 3 discloses a virtual LUN known as a control device LUN (CD LUN). CDLUNs provide indirect memory-mapped access to the control behavior of LUN pairs in an array.
  • the present invention has been made in view of the above points, and is a method for grouping a plurality of logical units, a method for processing a received request, and a method for grouping a plurality of logical units, which can process requests for a plurality of LUNs at once.
  • the purpose is to share the equipment and the processing equipment for the received requests.
  • the present invention comprises a step of selecting a plurality of logical units each having a logical unit number, and the step of selecting a plurality of logical units independently of the logical unit number.
  • a method of grouping a plurality of logical units comprising a step of assigning one grouped logical unit number to one group composed of units.
  • FIG. 1A is a diagram illustrating a configuration example of a database used by an application running on a server.
  • FIG. 1B is a diagram showing a configuration example of a file system used by an application running on a server.
  • FIG. 1C is a diagram showing an example in which an application running on a server uses a plurality of different file systems.
  • FIG. 2A is a diagram illustrating a configuration example of a database according to an embodiment of the present invention.
  • FIG. 2B is a diagram illustrating a configuration example of a file system according to an embodiment of the present invention.
  • FIG. 2C is a diagram showing an example of a case where a plurality of different file systems are used for an application running on a server according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing a system configuration according to one embodiment of the present invention.
  • FIG. 4 is a diagram showing a first embodiment of a management table for managing a plurality of LUNs as one grouped logical unit number (G-LUN).
  • FIG. 5 is a diagram showing a second embodiment of the management table for managing a plurality of LUNs as one grouped logical unit number (G-LUN).
  • FIG. 6 is a diagram showing a flowchart of a process for generating and maintaining a management table.
  • FIG. 7 is a flowchart showing a process of requesting a G-LUN to each LUN and a process of detecting completion of processing of each LUN and completing a request to the G-LUN. is there.
  • 2A, 2B, and 2C are diagrams showing an embodiment of the present invention.
  • FIG. 2A shows an embodiment in which one grouped LUN is allocated to the database 110 shown in FIG. 1A described above.
  • the database 110 shown in FIG. 1A includes a logical disk 120 having LUN-1 and a logical disk 130 having LUN-2.
  • each logical disk 1 2 0 and logical disk 130 are also given LUN-1 and LUN-2, respectively, and are grouped into an entire database 110 consisting of LUN-1 and LUN-2.
  • LUN-10 is given as a new logical unit number.
  • the LUN-10 is different from the LUN for each logical disk and has an attribute (G-LUN) indicating a logical unit number grouped.
  • G-LUN attribute
  • the server Requests can be sent to the database 110 using the grouped logical unit number LUN-10.
  • the server conventionally makes a request for a plurality of individual LUNs, but according to the present invention, the server makes a single request for the grouped logical unit number LUN-10 at one time. Can be processed.
  • FIG. 2B shows an embodiment in which one grouped LUN is allocated to the file system 140 shown in FIG. 1B.
  • the file system 140 shown in FIG. 1B described above is composed of a logical disk 150 having LUN-3, a logical disk 160 having LUN-4 and a logical disk 170 having LUN-5. It is configured.
  • LUN-3, LUN-4 and LUN-5 are similarly given to the individual logical disks 150, 160 and 170, respectively.
  • the entire file system 140 composed of LUN-4 and LUN-5 is given LUN-20 as a new grouped logical unit number.
  • the LUN-20 has an attribute (G-LUN) indicating that it is a grouped logical unit number, unlike the LUN for an individual logical disk.
  • G-LUN attribute
  • the server can execute this gnoled logical LUN.
  • a request can be sent to the database 110 using the unit number LUN—20.
  • the server has conventionally made one request for a plurality of individual LUNs and one request for a grouped logical unit number LUN—20. Can be processed in degrees.
  • FIG. 2C shows an embodiment in which an application running on the server shown in FIG. 1C uses a plurality of different file systems.
  • the file system 11 shown in FIG. 1C described above is composed of a logical disk 180 having LUN-6, and the file system 1 is composed of a logical disk 190 having LUN-7. It is composed of Similarly, in this embodiment, the logical disk 180 constituting the file system 11 is given LUN-6, and the logical disk 190 constituting the file system 1 is given LUN-7. , And further, as a new logical unit number, which is grouped, for the whole of the two finale systems 1 and 1 composed of LUN-6 and LUN-7, LUN-3 Give 0.
  • the LUN-30 has an attribute (G-LUN) indicating that it is a grouped logical unit number, unlike the LUN for an individual logical disk.
  • the grouping of logical unit numbers LUN—30 is given to the entire two file systems 11 and 12 so that the server Can use this grouped logical unit number LUN-30 to send a request to the entire two file systems 11 and 12.
  • This allows the server to make requests for a plurality of individual LUNs in the past, but according to the present invention, a single request for a grouped logical unit number LUN—30 allows the server to make one request at a time. Can be processed.
  • FIG. 3, FIG. 4, FIG. 5, and FIG. Will be explained.
  • FIG. 3 is a block diagram showing a system configuration according to one embodiment of the present invention.
  • the system shown in FIG. 3 includes a server 350, physical disk units 300, 301, 311, 3200, 330, 331, 3332, and 3440, It consists of a RAID controller 370 and a network 360.
  • the server 350 and the RA ID controller 370 are connected to a network 360.
  • the physical disk unit 300, 301, 311 320, 330, 331, 332 and 340 are connected to the RAID controller 370 and controlled by the RAID controller 370.
  • the RA ID controller 370 has (1) a management table for managing a plurality of LUNs as one grouped logical unit number (G-LUN), and (2) processing for generating and maintaining the management table. (3) Process for requesting a request for G-LUN to each LUN, and (4) Process for detecting completion of processing of each LUN and completing the request for G-LUN are incorporated.
  • G-LUN grouped logical unit number
  • FIGS. 4 and 5 show an embodiment of the management table for managing a plurality of LUNs as one grouped logical unit number (G-LUN) shown in (1) above.
  • G-LUN grouped logical unit number
  • the first embodiment of the management table shown in FIG. 4 includes a LUN (logical unit number) column 401, a G-LUN display column 402, and a LUN configuration information column 403.
  • the LUN number column 401 shows the number of each LUN.
  • the G-LUN display column 402 describes information such as a flag indicating whether the corresponding LUN number is a grouped logical unit number (G-LUN). In the present embodiment shown in FIG. 4, it is shown that LUN numbers 10 and 11 are G—LUNs.
  • the LUN configuration information column 403 describes identification information of each physical disk device if the LUN is not a G LUN.
  • the first embodiment of the management table shown in FIG. 4 indicates that a logical disk with LUN 0 is not a G-LUN, and is composed of a physical disk 00. Also, this indicates that the logical disk with LUN 1 is not a G-LUN and is composed of physical disks 10 and 11. This indicates that the logical disk with LUN 2 is not a G-LUN and is composed of physical disks 20.
  • the logical disk with L UN of 3 is not G-L UN, and is composed of physical disk 30, physical disk 31, and physical disk 32. Also, this indicates that the logical disk with a LUN of 4 is not a G-LUN and is composed of a physical disk 40.
  • a logical disk with a LUN of 10 indicating a grouped logical unit number is a logical disk with a LUN of 0 and a logical disk with a LUN of 2 and a logical disk with a LUN of 4.
  • the fact that the configuration is made up of logical disks is shown in the LUN configuration information column 403.
  • G-LUN grouped logical unit number
  • information of a logical disk having a LUN constituting the LUN is described in the LUN configuration information column 403.
  • a logical disk with a LUN of 1 is shown to be a logical unit number (G-LUN) grouped, consisting of a logical disk with a LUN of 1 and a logical disk with a LUN of 3 It has been shown.
  • G-LUN logical unit number
  • the LUNs assigned as G—LUNs are the normal LUNs: 1, 2, 3, and 4: Use unused LUN numbers greater than 4 (for example, 10 and 11 in this embodiment).
  • the server can use a new method to create logical unit numbers (eg, logical unit numbers) in which logical disks are grouped. G—LUN) is no longer necessary.
  • the second embodiment of the management table shown in FIG. 5 includes a LUN (logical unit number) column 501, a G—LUN display column 502, and a LUN configuration information column 503. .
  • the LUN number column 501 shows the number of each LUN.
  • the G—LUN display column 502 describes information such as a flag indicating whether the corresponding LUN number is a grouped logical unit number (G—LUN).
  • LUN numbers 10 and 11 indicate that they are G—LUNs.
  • the identification information of each physical disk device is described in ⁇ .
  • the difference between the second embodiment of the management table shown in FIG. 5 and the first embodiment of the management table shown in FIG. 4 is that the first embodiment of the management table shown in FIG.
  • the same LUN is registered in plurals, and the LUN configuration information column 403 corresponding to the same LUN has different physical disk resource information or LUNs constituting a G-LUN.
  • the configuration of the LUN corresponding to the LUN is registered in the second embodiment of the management table shown in FIG. 5
  • the information column 503 describes key IJ information of a plurality of physical disks or ⁇ ⁇ information of a logical disk having a LUN constituting G_LUN.
  • the logical unit numbers (G—LUNs) that are grouped are stored in the configuration information column 503 of the LU II in the same manner as in the first embodiment of the management table shown in FIG. Of the logical disk having the LUN that configures this is described.
  • FIG. 6 is a diagram illustrating a flowchart of processing for generating and maintaining a management table.
  • step 61 the process starts.
  • step 602 the RA ID controller 370 shown in FIG. 3 sends the physical disk units 300, 310, 311, and 32 connected to the RAID controller 370 to each other.
  • the configuration of 0, 330, 331, 3332 and 340 is sent to the server via the network 360 and displayed on the monitor of the server 350.
  • step 603 the user of the server 350 allocates LUN to each physical disk device displayed on the server 350's moeta.
  • step 604 the RAID controller 370 displays the LUN assigned by the user to the physical disk device on the monitor of the server 350.
  • step 605 the user of the server 350 assigns a G-LUN to the LUN displayed on the monitor.
  • step 606 the LU N allocated to the above-mentioned physical disk device, the G-LUN allocated to the LUN, and the basket of the physical disk device constituting each LUN! ⁇
  • the RAID controller 370 stores the information or the identification information of the logical disk having the LUN constituting the G-LUN as a management table as described with reference to FIG. 4 or FIG.
  • a G-LUN can be allocated to each LUN and maintained as a management table.
  • FIG. 7 shows a flowchart of a process of requesting a G-LUN to an individual LUN, detecting the completion of processing of an individual LUN, and completing the request to the G-LUN.
  • the same operation can be performed no matter what operation request is made from the server.
  • step 7001 a request to perform a predetermined operation for LUN is issued from the server 350 of FIG.
  • step 702 the RAID controller 370 in FIG. 3 checks whether the request to perform a predetermined operation on the LUN is to the G-LUN. Whether the request for the predetermined operation to the LUN is to the G—LUN is determined by referring to the management table shown in FIG. 4 or FIG. Judgment can be made based on the LUN information. If the request from the server is not for the G-LUN, the process proceeds to step 703.
  • step 703 the RAID controller 370 makes a request to one LUN to execute a predetermined operation of LUN. Then, the process proceeds to step 704.
  • step 704 the RAID controller 370 waits for completion of the execution of the predetermined operation in response to the request for executing the predetermined operation of LUN performed in step 703.
  • the process proceeds to step 709, and the process for the request to execute the predetermined operation of the LUN ends.
  • step 720 if the request to execute the predetermined operation for the LUN from the RA ID controller 370 server shown in FIG. 3 is for the G—LUN in step 720, the processing proceeds to step 705. move on.
  • Step 705 the RAID controller 370 in FIG. 3 issues a request to one LUN constituting the G-LUN to perform a predetermined operation of the LUN. Then, the process proceeds to step 706.
  • step 700 it is checked whether or not a request to execute a predetermined operation of the LUN has been issued to all LUNs constituting the G-LUN.
  • the LUN G—LUN corresponding to the request from the server is determined by referring to the management table shown in FIG. 4 or FIG. Judgment can be made based on information. For example, when the management table shown in FIG. 4 is used, processing is performed from the top to the bottom of the management table, for example, to LUNs constituting a logical disk with LUN 10 When the number of LUNs changes from 10 to 11, when it is determined that the issuance of the request to execute the predetermined operation of the LUN has been completed for all LUNs.
  • LUN is set to LUN for all LUNs shown in the configuration information 503 corresponding to 10.
  • the request for performing the predetermined operation of LUN is issued, it is determined that the request for performing the predetermined operation of LUN has been issued. If the request to execute the predetermined operation of the LUN has not been issued to all the LUNs constituting the G-LUN, the process proceeds to step 705 again, and the next step to configure the G-LUN is performed. A request is made to the other LUN to execute the specified operation of the LUN. Then, the process proceeds to step 706. The above processing of step 705 and step 706 is executed for all LUNs constituting the G-LUN.
  • step 707 the RA ID controller 370 in FIG. 3 waits for completion of the execution of the predetermined operation in response to the request to execute the predetermined operation of LUN performed in step 705. .
  • step 708 it is checked whether all the LUNs have completed the execution of the predetermined operation of the LUN. Whether or not all LUNs have completed execution of the predetermined operations of LUNs is determined by referring to the management table shown in FIG. 4 or FIG. — Judgment can be made based on LUN information. For example, to use the management table shown in Fig.
  • a process completion is received for LUNs that compose a logical disk with LUN 10
  • it is determined that the processing of the request for executing the predetermined operation of the LUN has been completed for all LUNs.
  • a predetermined LUN information is assigned to all LUNs shown in the LUN configuration information 503 corresponding to the LUN 10.
  • step 708 If it is determined in step 708 that all the LUNs have not yet completed execution of the predetermined operation of the LUN, the process proceeds to step 707, and the LUN performed in step 703 is performed. In response to a request to execute the predetermined operation, the process waits for completion of the execution of the predetermined operation. When the execution of the predetermined operation of one LUN is completed, the process proceeds to step 708, and when it is determined in step 708 that all the LUNs have completed the execution of the predetermined operation of the LUN, The processing for the request to execute the predetermined operation of the LUN having the attribute of G—LUN ends.
  • the server can perform operations on multiple LUNs with a single request, so that related LUNs can be saved and predetermined operations can be processed simultaneously in hardware. It becomes. This gives you complete control over synchronization between multiple LUNs.
  • this makes it possible to synchronously execute a request for evacuation or copying of LUNs having a logical relationship over the multiple LUNs among the multiple LUNs.

Abstract

本発明は、複数のLUNに対する要求を一度で処理できる、複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置を提供することを目的とする。この目的を達成するために、本発明は、各々が論理ユニット番号を有する複数の論理ユニットを選択するステップと、前記論理ユニット番号とは別に、前記選択するステップにより選択された前記複数の論理ユニットより構成される1つのグループに1つのグループ化された論理ユニット番号を割当てるステップを有する、複数の論理ユニットをグループ化する方法を提供する。

Description

明 細 書 複数の論理ユニットをグループ化する方法、 受信した要求の処 法、 複数の論 理ユニットをグループ化する装置及び、 受信した要求の処理装置 技術分野
本発明は、 複数の論理ユニットより構成されるシステムに関連し、 特に、 複数 の論理ユニットをグループ化する方法、 受信した要求の処理方法、 複数の論理ュ エツトをグループ化する装置及ぴ、 受信した要求の処^¾置に関連する。 背景技術
例えば、 RAID (Re dundan t Ar r ay o f I n e x p e n s i v e D i s k s) 装置などの大容量ディスク装置は、 数多くの物理的なデ イスク装置を内蔵しそして、それらにより、論理ディスクが構成される。そして、 大容量ディスク装置は、 サーバが使用できるように、 サーバに対して公開されて いる。
大容量ディスク装置を構成する論理ディスクは、 大容量化だけでなく、 データ レートの高速化又はディスク装置の信頼性を高めるために、 複数のディスク 装置より構成される R A I D装置として構成される:^が多い。 R A I D装置は、 その動作の方式により、 例えば、 RAID0、 RAID1〜RAID5等に分類 される。
大容量ディスク装置は、 サーバに対して、 LUN (Lo g i c a l Un i t Numb e r、論理ユニット番号)を有する論理ディスクとして公開されている。 サーバは、 この LUNを認識し、 LUN用いて論理ディスクをアクセスすること により、 その識理ディスクを構成する物理ディスクにアクセスして、 データべ一 スゃフアイルシステムなどを、 この LUN上に構築する。
サーバ上で動作するデータベース、 フアイルシステムおよびフアイルシステム を利用して動作するアプリケーションは、 動作の必要上から、 複数の LUNをわ たって論理的な関係を有するデータ (又は、 ファイル) を格納して、 動作してい る場合が多い。
図 1 Aは、 サーバ上で動作するアプリケーションカ S使用するデータベースの構 成例を示す図である。 図 1 Bは、 サーバ上で動作するアプリケーションが使用す るフアイノレシステム (例えば、 S a f e F I LE) の構成例を示す図である。 ま た、 図 1 Cは、 サーバ上で動作するァプリケーションが、 複数の異なるファイル システム使用している場合の例を示す図である。
図 1 Aのデータベース 110は、 LUN— 1を有する論理ディスク 120と L UN— 2を有する論理ディスク 130より構成される。 論理ディスク 120は、 RAI DOから RAID 5のような方式を使用して、 物理ディスク装置 121か ら 126により構成される。 論理ディスク 130は、 RAIDOから RAID5 のような方式を使用して、物理ディスク装置 131から 136により構成される。 データベース 110では、 例えば、 データベースの実体が L UN— 1を有する 論理ディスクに格納されそして、 動作口グは LUN— 2を有する論理ディスクに 格納されるようにすることができる。
また、 図 1Bのファイルシステム (例えば、 Sa f eF I LE等) 140は、 LUN— 3を有する論理ディスク 150、 L UN— 4を有する論理ディスク 16 0及ぴ、 LUN— 5を有する論理ディスク 170より構成される。 そして、 論理 ディスク 150は、 RAIDOから RAID5のような方式を使用して、 物理デ イスク装置 151から 156により構成される。 論理ディスク 160は、 RAI DOから RA I D 5のような方式を使用して、 物理ディスク装置 161から 16 6により構成される。
この構成では、複数の L UNを結合した 1つのフアイルシステムを構成できる。 また、 図 1Cには、 ファイルシステム一 1とファイルシステム一 2の 2つのフ アイルシステムが示されており、 ファイルシステム— 1は、 LUN— 6を有する 論理ディスクより構成され、 そして、 ファイルシステム一 2は、 LUN— 7を有 する論理ディスクより構成される。 論理ディスク 180は、 1 100から1 ID 5のような方式を使用して、 物理ディスク装置 181から 186により構成 される。 論理ディスク 190は、 RAIDOから RAID 5のような方式を使用 して、 物理ディスク装置 191から 196により構成される。 この構成では、 アプリケーションは、 論理的に関係するデータを、 LUN— 6 の論理ディスク 1 8 0上のファイルと LUN— 7の論理ディスク 1 9 0上のファ ィルのような、 異なる L UN上の異なるファイルに格納する。
し力し、 上述の図 1 Aから図 1 Cに示されたようなデータベース 1 1 0、 ファ ィルシステム 1 4 0、 及ぴ、 ファイルシステム一 1とファイルシステム一 2のよ な、 LUNを有する論理ディスクにより構成されるシステムの、 各論理ディスク を構成する現在の R A I D装置は、 個々に割当てられた LUNでのみ管理される ように構成されている。 従って、 上述のように、 サーバ上で動作するソフトゥェ ァが、 論理的には、 複数の LUNに対する一括した要求を行うことを必要として いる場合であっても、 サーバは、 個々の L UNへの要求として、 処理をしなけれ ばならない。
RA I D装置は前述のように、 -個々に割当てられた LUNでのみ管理されるよ うに構成されているので、複数の L UNを利用するように構成されているサーバ 上のソフトウェアは、 個々の L UNに対して個別に要求を行ってデータを操作し なければならず、 同時に処理したい要求を、 一度に処理できないという問題があ る。
サーバ上で実行するソフトウェアがデータベース等を管理する上では、 サーバ 上のソフトウェアなどで複数の L U Nに対する要求を一括して管理することが可 能ではあるが、 しかし、 現実の R A I D装置に対しては、 個々の LUNを介して 論理ディスクごとに処理をしなければならない。 従って、 一括して処理をしたい 場合であっても、 実際には、 サーバが LUN毎に処理を依頼する時間が、 異なつ てしまう。
例えば、 RA I D装置には、 一瞬で LUNを複写する O P C (O n e P o i n t C o y) 機能などが実装されている。 しかし、 この処理を複数の LUN に対して同時に行レヽたレ、: 1^であっても、 個々の L UN毎に要求することが必要 なために、 実際には要求を発生する時点の間に時間差が発生し、 厳密には、 同時 に処理を実行できないという結果となる。
また、 本発明の先行技術は、 以下に示す特許文献にも記載されている。 特許文 献 1は、 複数の論理ポリュームを、 1つの拡張論理ュ-ットとして制御する拡張 LUNを開示している。 特許文献 2は、 拡張論理ユニット単位に、 RAID装置 でコピーする方式を開示している。 また特許文献 3では、 制御装置 LUN (CD LUN) として知られている、 仮想 LUNを開示している。 CDLUNは、 ァレ ィ内の L U N対の制御動作に対する、 間接メモリマッピングされたアクセスを提 供します。
(特許文献 1)
特開平 11— 327803号公報
(特許文献 2)
特開 2000— 137582号公報
(特許文献 1)
特開 2002— 202914号公報 発明の開示
本発明は上記の点に鑑みてなされたもので、 複数の L U Nに対する要求を一度 で処理できる、 複数の論理ュニットをグループ化する方法、 受信した要求の処理 方法、 複数の論理ユニットをグループ化する装置及び、 受信した要求の処理装置 を樹共することを目的とする。
この目的を達成するために、 本発明は、 各々が論理ユニット番号を有する複数 の論理ユニットを選択するステップと、 廳己論理ユニット番号とは別に、 m 択するステップにより選択された前記複数の論理ユニットより構成される 1つの グループに 1つのグノ "プ化された論理ュニット番号を割当てるステップを有す る、 複数の論理ユニットをグループ化する方法を提供する。
従来は複数の個々の論理ュニット番号(LUN)に対する要求を行っていたが、 本発明により、 1つのグループに 1つのグループ化された論理ュニット番号を割 当てることができるので、 グループ化された論理ユニット番号 (G—LUN) に 対する 1つの要求により、一度で処理することができるようにすることができる。 図面の簡単な説明
本発明の他の目的、 特徴及び利点は、 添付の図面を参照しながら以下の詳細な 説明を読むことにより一層明瞭となるであろう。
図 1 Aは、 サーバ上で動作するアプリケーションが使用するデータベースの構 成例を示す図である。
図 1 Bは、 サーバ上で動作するアプリケーションが使用するファイルシステム の構成例を示す図である。
図 1 Cは、 サーバ上で動作するアプリケーションが、 複数の異なるファイルシ ステム使用している の例を示す図である。
図 2 Aは、 本発明の一実施例のデータベースの構成例を示す図である。
図 2 Bは、 本発明の一実施例のファイルシステムの構成例を示す図である。 図 2 Cは、 本発明の一実施例のサーバ上で動作するアプリケーション力 複数 の異なるファイルシステム使用している場合の例を示す図である。
図 3は、 本発明の一実施例のシステム構成を示すプロック図である。
図 4は、 複数の L UNを 1つのグループ化された論理ユニット番号 (G— LU N) として管理するための管理テーブルの第 1の実施例を示す図である。
図 5は、 複数の LUNを 1つのグループ化された論理ユニット番号 (G— LU N) として管理するための管理テーブルの第 2の実施例を示す図である。
図 6は、 管理テーブルを生成及び保守する処理のフロ一チヤ一トを示す図であ る。
図 7は、 G— L UNに対する要求を、 個々の L UNに要求する処理及び、 個々 の L UNの処理完了を検出し、 G— LUNへの要求を完了させる処理のフローチ ヤートを示す図である。 発明を実施するための最良の形態
以下に、本発明を実施するための実施の形態について、図面を用いて説明する。 図 2 A、 図 2 B及び、 図 2 Cは、 本発明の実施例を示す図である。
図 2 Aは、 前述の図 1 Aで示されたデータベース 1 1 0に対して、 1つのグル ープ化された LUNを割当てる実施例を示す。 前述の図 1 Aで示されたデータべ ース 1 1 0は、 L UN— 1を有する論理ディスク 1 2 0と L UN— 2を有する論 理ディスク 1 3 0より構成されている。 本実施例では、 個々の論理ディスク 1 2 0と論理ディスク 1 3 0には、 同様にそれぞれ、 LUN— 1と L UN— 2が与え られ、更に、 LUN— 1と LUN— 2より構成されるデータベース 1 1 0全体に、 グループ化された新たな論理ュ-ット番号として、 LUN— 1 0を与える。 そし て、 この LUN— 1 0は、 個々の論理ディスクに対する LUNと異なり、 グルー プィ匕された論理ユニット番号であることを示す属性 (G- LUN) を有する。 このように、 個々の論理ディスクに対する L UNにさらにカ卩えて、 データべ一 ス 1 1 0に全体として、 グループ化された論理ュニット番号 L UN— 1 0を与え ることにより、 サーバは、 このグループ化された論理ュ-ット番号 LUN—1 0 を用いて、 データベース 1 1 0に対して要求を送ることができる。 そして、 これ により、 サーバは、 従来は複数の個々の LUNに対する要求を行っていたが、 本 発明により、 グループ化された論理ュ-ット番号 LUN- 1 0に対する 1つの要 求により、 一度で処理することができるようにすることができる。
図 2 Bは、 前述の図 1 Bで示されたファイルシステム 1 4 0に対して、 1つの グループィ匕された LUNを割当てる実施例を示す。 前述の図 1 Bで示されたファ ィルシステム 1 4 0は、 LUN— 3を有する論理ディスク 1 5 0と LUN— 4を 有する輪理ディスク 1 6 0と LUN— 5を有する論理ディスク 1 7 0より構成さ れている。 本実施例では、 個々の論理ディスク 1 5 0、 1 6 0及ぴ 1 7 0には、 同様にそれぞれ、 LUN— 3、 LUN— 4及ぴ、 LUN— 5が与えられ、 更に、 LUN— 3、 LUN— 4及ぴ、 LUN— 5より構成されるファイルシステム 1 4 0全体に、 グループ化された新たな論理ュニット番号として、 LUN— 2 0を与 える。 そして、 この LUN— 2 0は、 個々の論理ディスクに対する L UNと異な り、 グループ化された論理ユニット番号であることを示す属性 (G— LUN) を 有する。
このように、 個々の論理ディスクに対する LUNにさらにカロえて、 ファイルシ ステム 1 4 0に、 グループ化された論理ユニット番号 LUN— 2 0を与えること により、 サーバは、 このグノレープ化された論理ュ-ット番号 LUN— 2 0を用い て、データベース 1 1 0に対して要求を送ることができる。そして、これにより、 サーバは、 従来は複数の個々の L UNに対する要求を、 グループ化された論理ュ ニット番号 LUN— 2 0に対する 1つの要求を行っていたが、 本発明により、一 度で処理することができるようにすることができる。
図 2 Cは、 前述の図 1 Cで示されたサーバ上で動作するアプリケーションが、 複数の異なるファイルシステム使用している場合の実施例を示す。 前述の図 1 C で示されたファイルシステム一 1は、 L UN— 6を有する論理ディスク 1 8 0に より構成され、 そして、 ファイルシステム一 2は、 LUN— 7を有する論理ディ スク 1 9 0より構成されている。 本実施例では、 同様に、 ファイルシステム一 1 を構成する論理ディスク 1 8 0には L UN— 6が与えられ、 且つ、 ファイルシス テム一 2を構成する論理ディスク 1 9 0には LUN— 7が与えられ、そして更に、 LUN— 6と LUN— 7より構成される 2つのファイノレシステム一 1とフアイノレ システム一 2の全体に対して、グループ化された新たな論理ュニット番号として、 LUN— 3 0を与える。 そして、 この LUN— 3 0は、 個々の論理ディスクに対 する L UNと異なり、 グループ化された論理ュニット番号であることを示す属性 (G- LUN) を有する。
このように、 個々の論理ディスクに対する LUNにさらに加えて、 2つのファ ィルシステム一 1とファイルシステム一 2の全体に対して、 グループ化された論 理ユニット番号 LUN— 3 0を与えることにより、 サーバは、 このグループ化さ れた論理ュニット番号 LUN— 3 0を用いて、 2つのファイルシステム一 1とフ アイルシステム一 2の全体に対して要求を送ることができる。 そして、 これによ り、 サーバは、 従来は複数の個々の L UNに対する要求を行っていたが、 本発明 により、 グループ化された論理ュニット番号 LUN— 3 0に対する 1つの要求に より、 一度で処理することができるようにすることができる。
次に、 本発明に従って、 グループ化された論理ユニット番号を割当てることに より、複数の論理ュニットをグループ化する方法の実施例にっレヽて、図 3、図 4、 図 5、 図 6を用いて説明する。
図 3は、 本発明の一実施例のシステム構成を示すブロック図である。 図 3に示 されたシステムは、 サーバ 3 5 0、 物理ディスク装置 3 0 0、 3 0 1、 3 1 1、 3 2 0、 3 3 0、 3 3 1, 3 3 2及び、 3 4 0、 R A I Dコントローラ 3 7 0、 ネットワーク 3 6 0、 より構成される。 サーバ 3 5 0と RA I Dコントローラ 3 7 0は、ネットワーク 3 6 0に接続されている。また、物理ディスク装置 3 0 0、 301、 311 320、 330、 331, 332及ぴ、 340は、 RAIDコ ントローラ 370に接続され、 RAIDコントローラ 370から制御される。
RA I Dコントローラ 370には、 (1)複数の LUNを 1つのグループ化され た論理ユニット番号(G— L UN) として管理するための管理テーブル、 (2)上 記管理テーブルを生成及び保守する処理、 (3) G— LUNに対する要求を、個々 の L UNに要求する処理及び、 (4)個々の LUNの処理完了を検出し、 G— LU Nへの要求を完了させる処理が組み込まれる。
先ず最初に、 (1) の管理テーブル及び (2) の管理テーブルを生成及び保守す る処理について説明する。
図 4と図 5は、 上述の (1) に示された、 複数の LUNを 1つのグループ化さ れた論理ユニット番号 (G-LUN) として管理するための管理テーブルの一実 施例を示す図である。
図 4に示された管理テーブルの第 1の実施例は、 L UN (論理ュニット番号) 欄 401、 G— LUN表示欄 402及び、 LUNの構成情報欄 403より構成さ れる。 LUN番号欄 401には、 各 LUNの番号が示される。 G—LUN表示欄 402は、 対応する LUN番号が、 グループ化された論理ユニット番号 (G— L UN) であるかどうかを示すフラグ等の情報を記述する。 図 4に示された本実施 例では、 LUN番号 10と 11が G— LUNであることが示されている。 LUN の構成情報欄 403は、 LUNが G— LUNでない には、 各物理ディスク装 置の識別情報を記述する。
例えば、 図 4に示された管理テーブルの第 1の実施例では、 L UNが 0の論理 ディスクは、 G— LUNではなく、 且つ、 物理ディスク 00より構成されること を示す。 また、 L UNが 1の論理ディスクは、 G—LUNではなく、 且つ、 物理 ディスク 10と物理ディスク 11より構成されることを示す。 LUNが 2の論理 ディスクは、 G— LUNではなく、 且つ、 物理ディスク 20より構成されること を示す。 L UNが 3の論理ディスクは、 G— L UNではなく、 且つ、 物理ディス ク 30と物理ディスク 31及び、 物理ディスク 32より構成されることを示す。 また、 LUNが 4の論理ディスクは、 G—LUNではなく、 且つ、 物理ディスク 40より構成されることを示す。 一方、 グループ化された論理ユニット番号 (G- LUN) であることが示され た、 L UNが 1 0の論理ディスクは、 LUNが 0の論理ディスクと LUNが 2の 論理ディスクと LUNが 4の論理ディスクとより構成されることが、 LUNの構 成情報欄 4 0 3に示されている。 このように、 グループ化された論理ュニット番 号 (G— LUN) に対しては、 LUNの構成情報欄 4 0 3には、 それを構成する L UNを有する論理ディスクの 情報が記述される。 同様に、 グループ化され た論理ユニット番号 (G- LUN) であることが示された、 LUNが 1 1の論理 ディスクは、 LUNが 1の論理ディスクと LUNが 3の論理ディスクとより構成 されることが示されている。
図 4に示された実施例のように、通常の LUNで使用している LUN番号が 1、 2、 3及び、 4の:^には、 G— LUNとして割当てる LUNは、 通常の; LUN で使用さていない、 4より大きい LUN番号 (例えば、 本実施例では 1 0及び 1 1 )を利用する。このように、 G—LUNを、通常の L UNとしては使用しない、 空き LUNに割当てるとすることで、 サーバが、 新たな方法を使用して、 論理デ イスクがグループ化された論理ユニット番号 (G— LUN) を有するということ を認識することが不要となる。
次に、 管理テーブルの第 2の実施例を図 5を用いて説明する。 図 5に示された 管理テーブルの第 2の実施例は、 LUN (論理ユニット番号) 欄 5 0 1、 G— L UN表示欄 5 0 2及び、 LUNの構成情報欄 5 0 3より構成される。 LUN番号 欄 5 0 1には、 各 LUNの番号が示される。 G— LUN表示欄 5 0 2は、 対応す る LUN番号が、 グループ化された論理ユニット番号 (G— LUN) であるかど うかを示すフラグ等の情報を記述する。 図 5に示された管理テーブルの第 2の実 施例では、 LUN番号 1 0と 1 1が G— LUNであることを示す。 LUNの構成 情報欄 5 0 3は、 L U Nが G— L U Nでなレヽ;^には、 各物理ディスク装置の識 別情報を記述する。
図 5に示された管理テーブルの第 2の実施例と、 図 4に示された管理テーブル の第 1の実施例との違レ、は、 図 4に示された管理テーブルの第 1の実施例では、 同一の LUNが複数個登録され、 同一の LUNに対応する LUNの構成情報欄 4 0 3に異なる物理ディスクの リ情報又は G— LUNを構成する LUNを有する 論理デイスクの 情報力記述されているのに対して、 図 5に示された管理テー ブルの第 2の実施例では、 同一の L UNが 1個のみ登録され、 その LUNに対応 する L U Nの構成情報欄 5 0 3に複数の物理ディスクの調 IJ情報又は G _ L U N を構成する LUNを有する論理ディスクの ϋ ^情報が記述されていることである。 なおグループ化された論理ユニット番号 (G— LUN) に対しては、 図 4に示さ れた管理テーブルの第 1の実施例と同様に、 L U Νの構成情報欄 5 0 3には、 そ れを構成する LUNを有する論理ディスクの調【膽報が記述される。
次に、前述の(2)の管理テーブルを生成及び保守する処理について説明する。 図 6は、管理テーブルを生成及び保守する処理のフローチャートを示す図である。 ステップ 6 0 1で、 処理が開始する。
次に、 ステップ 6 0 2で、 図 3に示された RA I Dコントローラ 3 7 0は、 R A I Dコントローラ 3 7 0に接続された各物理ディスク装置 3 0 0、 3 0 1、 3 1 1、 3 2 0、 3 3 0、 3 3 1, 3 3 2及び、 3 4 0の構成を、 ネットワーク 3 6 0を介してサーバに送り、 サーバ 3 5 0のモニタ上に表示する。
次に、 ステップ 6 0 3で、 サーバ 3 5 0のユーザが、 サーバ 3 5 0のモエタ上 に表示された各物理ディスク装置に L U Nを割当てる。
次に、 ステップ 6 0 4で、 RA I Dコントローラ 3 7 0は、 ユーザが物理ディ スク装置に割当てた LUNを、 サーバ 3 5 0のモニタ上に表示する。
次に、 ステップ 6 0 5で、 サーバ 3 5 0のユーザが、 モニタ上に表示された L UNに対して、 G— LUNを割当てる。
そして、 最後に、 ステップ 6 0 6で、 上述の物理ディスク装置に割当てた LU N、 L UNに対して割当てられた G— LUN、 及ぴ、 各 LUNを構成する物理デ イスク装置の籠! ^情報又は G— L UNを構成する L UNを有する論理ディスクの 識別情報を、 図 4又は図 5を用いて説明したような管理テーブルとして、 R A I Dコントローラ 3 7 0が記憶する。
以上のように、 各 LUNに対して、 G— LUNを割当て且つ管理テーブルとし て保守することができる。
次に、前述の、 (3 ) G— LUNに対する要求を、個々の LUNに要求する処理 及ぴ、 (4)個々の L UNの処理完了を検出し、 G— L UNへの要求を完了させる 処理について、 図 7を参照して説明する。
図 7は、 G— LUNに対する要求を、 個々の LUNに要求する処 び、 個々 の L UNの処理完了を検出し、 G— LUNへの要求を完了させる処理のフローチ ヤートを示す。 本実施例では、 サーバから、 どのような動作の要求が行われた場 合にも、 同様に 亍することができる。
ステップ 7 0 1で、 L UNに対する所定の動作を実行する要求が、 図 3のサー バ 3 5 0から発行される。
次に、 図 3の RA I Dコントローラ 3 7 0は、 ステップ 7 0 2で、 LUNに対 する所定の動作を実行する要求が、 G— LUNに対するものであるかどうかを検 査する。 L UNに対する所定の動作の要求が、 G— LUNに対するものであるか どうかは、 前述の図 4又は図 5に示された管理テーブルを参照して、 サーバから の要求に対応する LUNの G— LUN情報により、 判断することができる。 サー パからの要求が、 G— LUNに対するものでない場合には、 処理はステップ 7 0 3に進む。
次に、 ステップ 7 0 3では、 RA I Dコントローラ 3 7 0は、 1つの LUNに 対して L UNの所定の動作を実行する要求を行う。 そして、 処理は、 ステップ 7 0 4に進む。
次に、 ステップ 7 0 4では、 RA I Dコントローラ 3 7 0は、 ステップ 7 0 3 で行つた L UNの所定の動作を実行する要求に対して、 その所定の動作の実行の 完了を待つ。 そして、 LUNの所定の動作を実行が完了するとステップ 7 0 9に 進み、 LUNの所定の動作を実行する要求に対する処理は終了する。
一方、 ステップ 7 0 2で、 図 3の RA I Dコントローラ 3 7 0力 サーバから の LUNに対する所定の動作を実行する要求が、 G— LUNに対するものである 場合には、 処理はステップ 7 0 5に進む。
ステップ 7 0 5では、 図 3の RA I Dコントローラ 3 7 0が、 G—LUNを構 成する 1つの LUNに対して、 LUNの所定の動作を 亍する要求を行う。 そし て、 処理は、 ステップ 7 0 6に進む。
ステップ 7 0 6では、 G— LUNを構成する全ての LUNに対して、 LUNの 所定の動作を実行する要求を発行したかどうかを検査する。 全ての LUNに対し て、 L UNの所定の動作を実行する要求を発行したかどうかは、 前述の図 4又は 図 5に示された管理テーブルを参照して、 サーバからの要求に対応する L UNの G— LUN情報により、 判断することができる。 例えば、 図 4に示された管理テ 一ブルを使用する場合には、 管理テーブルの上から下に向かって、 例えば、 LU Nが 1 0の論理ディスクを構成する L UNに対して処理を実行する要求を発行し、 LUNが 1 0から 1 1になった時に、 全ての LUNに対して、 LUNの所定の動 作を実行する要求の発行が完了したと判断する。 また、 例えば、 図 5に示された 管理テーブルを使用する には、 例えば、 L UNが 1 0に対応する L UNの構 成情報 5 0 3に示された全ての LUNに対して、 L UNの所定の動作を実行する 要求を発行したときに、 L UNの所定の動作を実行する要求の発行が完了したと 判断する。 まだ、 G— L UNを構成する全ての L UNに対して、 LUNの所定の 動作を実行する要求を発行していない場合には、 再びステップ 7 0 5に進み、 G - LUNを構成する次の LUNに対して LUNの所定の動作を実行する要求を行 う。 そして、 処理は、 ステップ 7 0 6に進む。 以上の、 ステップ 7 0 5とステツ プ 7 0 6の処理を、 G—L UNを構成する全ての L UNに対し実行する。
次に、 処理はステップ 7 0 7へ進む。 ステップ 7 0 7では、 図 3の RA I Dコ ントローラ 3 7 0は、 ステップ 7 0 5で行った L UNの所定の動作を実行する要 求に対して、 その所定の動作の実行の完了を待つ。 そして、 1つの LUNの所定 の動作の実行が完了するとステップ 7 0 8に進み、 全ての LUNが、 LUNの所 定の動作の実行を完了したかどうかを検査する。 全ての L UNが、 L UNの所定 の動作の実行を完了したかどうかは、 前述の図 4又は図 5に示された管理テープ ルを参照して、 サーバからの要求に対応する LUNの G— LUN情報により、 判 断することができる。例えば、図 4に示された管理テーブルを使用する には、 管理テーブルの上から下に向かって、 例えば、 LUNが 1 0の論理ディスクを構 成する L UNに対して処理の完了を受取った時に、 全ての LUNに対して、 LU Nの所定の動作を実行する要求の処理が完了したと判断する。 また、 例えば、 図 5に示された管理テーブルを使用する には、 例えば、 LUNが 1 0に対応す る L U Nの構成情報 5 0 3に示された全ての L U Nに対して、 L U Nの所定の動 作の処理の完了を受け取ったときに、 L UNの所定の動作の実行が完了したと判 断する。 ステップ 7 0 8で、 まだ、 全ての LUNが、 LUNの所定の動作の実行 を完了していないと判断する場合には、 処理はステップ 7 0 7に進み、 ステップ 7 0 3で行った L UNの所定の動作を実行する要求に対して、 その所定の動作の 実行の完了を待つ。 そして、 1つの L UNの所定の動作の実行が完了するとステ ップ 7 0 8に進み、 ステップ 7 0 8で、 全ての LUNが、 LUNの所定の動作の 実行を完了したと判断する場合には、 G— LUNの属性を有する LUNの所定の 動作を実行する要求に対する処理は終了する。
以上のように、 G— L UNに対する要求を、個々の L UNに要求する処¾¾び、 個々の L UNの処理完了を検出し、 G_ LUNへの要求を完了させる処理を実行 することができる。
以上説明したように、 サーバは、 複数の L UNに対して一度の要求で操作を行 うことができるので、 関連する L UNの退避や所定の動作をハード的に同時に処 理することが可能となる。 これにより、 複数の LUNの処理間の同期を、 完全に 制御できる。
また、 これにより、 複数の L UNにわたつて論理的な関係を有する L UNの退 避や複写などの要求を、複数の L UNの間で同期して実施することができる。

Claims

請 求 の 範 囲
1. 各々が論理ュ-ット番号を有する複数の論理ュニットを選択するステップ と、
tfHB論理ュニット番号とは別に、 ttn己選択するステップにより選択された ΐΐίΐΒ 複数の論理ュ-ットより構成される 1つのグループに 1つのグループ化された論 理ュニット番号を割当てるステップを有する、 複数の論理ュニットをグループ化 する方法。
2. tfilBグループ化された論理ユニット番号を割当てるステップは、 前記論理 ュニット番号と、 tfHB論理ュ-ット番号が謝己グループ化された論理ュニット番 号であるかどうかを示す情報と、 前記論理ュニットを構成する物理的装置の ϋ¾υ 情報又は前記グループを構成する ΙϋΙΕ論理ュニットを識別する情報を記述する、 管理テーブルを作成することを特徴とする、 請求項 1に記載の複数の論理ユエッ トをグループ化する方法。
3. 更に、 前記管理テーブルを記憶するステップを有することを特徴とする、 請求項 2に記載の複数の輪理ュニットをグループ化する方法。
4. 嫌己論理ュニットは、 論理ディスクである請求項 1に記載の複数の論理ュ ニットをグループ化する方法。
5. 前記論理ュニットは論理ディスクであり、 tfrt己物理的装置は物理う 置である、 請求項 2あるいは 3に記載の、 複数の論理ュニットをグループ化する 方法。
6. 各々が論理ュニット番号を有する複数の論理ュニットを選択するステップ を有し、
tiit己論理ュニット番号とは別に、 前記選択するステップにより選択された tilts 複数の論理ュニットより構成される 1つのグループに 1つのグループ化された論 理ュニット番号を割当てるステップを有し、 ttrt己グループ化された論理ュニット 番号を割当てるステップは、 SfilB論理ュ -ット番号と、 前記論理ユニット番号が ttrt己グループ化された論理ュニット番号であるかどうかを示す情報と、 前記論理 ユニットを構成する物理的装置の識别情報又は前記グループを構成する前記論理 ユニットを ϋ¾υする情報を記述する、 管理テーブルを作成し、
歸己グループ化された論理ュニット番号を用いて所定の動作を実行する要求を 受信した には、 前記管理テーブルに記述された觸己グループを構成する全て の tirta論理ュニットに、 編己所定の動作を実行する要求を発行するステップを有 し、
前記全ての論理ュニットが、 filB所定の動作の実行を完了したことを判断する ステップとを有する、 受信した要求の処理方法。
7 · 前記論理ュニットは論理ディスクであり、 前記物理的装置は物理ディスク 装置である、 請求項 6に記載の、 受信した要求の処 »法。
8. 各々が論 ュ二ット番号を有する複数の論理ュニットを選択する手段と、 ffilB論理ュニット番号とは別に、 嫌己選択するステップにより選択された前記 複数の論理ュニットより構成される 1つのグループに 1つのグループ化された論 理ュエツト番号を割当てる手段を有する、 複数の論理ュニットをグループ化する
9. tinsグループ化された論理ユニット番号を割当てる手段は、 前記論理ュニ ット番号と、 嫌己論理ュニット番号が藤己グループ化された論理ュニット番号で あるかどうかを示す情報と、 歸己論理ュ-ットを構成する物理的装置の識別情報 又は前記グループを構成する tflf己論理ュ-ットを識別する情報を記述する、 管理 テーブルを作成することを特徴とする、 請求項 8に記載の複数の論理ュニットを グループ化する装置。
1 0. 更に、 前記管理テーブルを記憶する手段を有することを特徴とする、 請 求項 9に記載の複数の餘理ュニットをグループ化する装置。
1 1 . ΙίίΙ己論理ュ-ットは、 論理ディスクである請求項 8に記載の複数の論理 ュニットをグループ化する装置。
1 2 · ΙίίΙΒ論理ュニットは論理ディスクであり、 前記物理的装置は物理ディスク 装置である、 請求項 9あるいは 1 0に記載の、 複数の論理ユニットをグループ化 する装置。
1 3. 各々が論理ュニット番号を有する複数の論理ュニットを選択する手段を 有し、
l己論理ュ-ット番号とは別に、 嫌己選択するステップにより選択された前記 複数の論理ュ-ットより構成される 1つのグループに 1つのグループ化された論 理ュニット番号を割当てる手段を有し、 嫌己グループ化された論理ュニット番号 を割当てる手段は、 前記論理ユニット番号と、 前記論理ユニット番号が前記グル ープ化された論理ュニット番号である力どうかを示す情報と、 編己論理ュュット を構成する物理的装置の識別情報又は編己グループを構成する tiff己論理ュニット を識別する情報を記述する、 管理テーブルを作成し、
嫌己グループ化された論理ュ-ット番号を用いて所定の動作を実行する要求を 受信した場合には、 前記管理テーブルに記述された廳己グループを構成する全て の前記論理ュニットに、 前記所定の動作を実行する要求を発行する手段を有し、 前記全ての論理ュュットが、 前記所定の動作の実行を完了したことを判断する 手段とを有する、 受信した要求の処«置。
1 4. 前記論理ュュットは論理ディスクであり、 tfrt己物理的装置は物理ディス ク装置である、 請求項 1 3に記載の、 受信した要求の処理装置。
PCT/JP2003/008805 2003-07-10 2003-07-10 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置 WO2005006175A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP03817426A EP1645952A4 (en) 2003-07-10 2003-07-10 METHOD FOR GROUPING MULTIPLE LOGICAL UNITS, RECEPTION REQUIREMENT PROCESSING METHOD, DEVICE FOR GROUPING MULTIPLE LOGICAL UNITS, AND DEVICE FOR PROCESSING RECEIVED REQUIREMENTS
PCT/JP2003/008805 WO2005006175A1 (ja) 2003-07-10 2003-07-10 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置
JP2005503857A JPWO2005006175A1 (ja) 2003-07-10 2003-07-10 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置
US11/325,442 US20060112223A1 (en) 2003-07-10 2006-01-05 Method of grouping logical units, method of processing a received request, apparatus for grouping logical units, and apparatus for processing a received request

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/008805 WO2005006175A1 (ja) 2003-07-10 2003-07-10 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/325,442 Continuation US20060112223A1 (en) 2003-07-10 2006-01-05 Method of grouping logical units, method of processing a received request, apparatus for grouping logical units, and apparatus for processing a received request

Publications (1)

Publication Number Publication Date
WO2005006175A1 true WO2005006175A1 (ja) 2005-01-20

Family

ID=34044613

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/008805 WO2005006175A1 (ja) 2003-07-10 2003-07-10 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置

Country Status (4)

Country Link
US (1) US20060112223A1 (ja)
EP (1) EP1645952A4 (ja)
JP (1) JPWO2005006175A1 (ja)
WO (1) WO2005006175A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157421A1 (ja) * 2015-03-31 2016-10-06 株式会社日立製作所 ストレージ装置及びその制御方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242434A (ja) * 1998-12-22 2000-09-08 Hitachi Ltd 記憶装置システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09305328A (ja) * 1996-05-13 1997-11-28 Fujitsu Ltd ディスクアレイ装置
US6542961B1 (en) * 1998-12-22 2003-04-01 Hitachi, Ltd. Disk storage system including a switch
US6684209B1 (en) * 2000-01-14 2004-01-27 Hitachi, Ltd. Security method and system for storage subsystem
US20020104008A1 (en) * 2000-11-30 2002-08-01 Cochran Robert A. Method and system for securing control-device-lun-mediated access to luns provided by a mass storage device
US6684313B2 (en) * 2001-08-15 2004-01-27 Hewlett-Packard Development Company, L.P. Managing storage contention in automated storage systems
US7171434B2 (en) * 2001-09-07 2007-01-30 Network Appliance, Inc. Detecting unavailability of primary central processing element, each backup central processing element associated with a group of virtual logic units and quiescing I/O operations of the primary central processing element in a storage virtualization system
US7111084B2 (en) * 2001-12-28 2006-09-19 Hewlett-Packard Development Company, L.P. Data storage network with host transparent failover controlled by host bus adapter
JP4139675B2 (ja) * 2002-11-14 2008-08-27 株式会社日立製作所 仮想ボリュームの記憶領域割当方法、その装置及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242434A (ja) * 1998-12-22 2000-09-08 Hitachi Ltd 記憶装置システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1645952A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157421A1 (ja) * 2015-03-31 2016-10-06 株式会社日立製作所 ストレージ装置及びその制御方法
JPWO2016157421A1 (ja) * 2015-03-31 2017-09-14 株式会社日立製作所 ストレージ装置及びその制御方法

Also Published As

Publication number Publication date
JPWO2005006175A1 (ja) 2006-08-24
US20060112223A1 (en) 2006-05-25
EP1645952A4 (en) 2007-04-18
EP1645952A1 (en) 2006-04-12

Similar Documents

Publication Publication Date Title
US7478177B2 (en) System and method for automatic reassignment of shared storage on blade replacement
JP5158074B2 (ja) ストレージ管理プログラム、ストレージ管理方法、ストレージ管理装置およびストレージシステム
US8533419B2 (en) Method for controlling data write to virtual logical volume conforming to thin provisioning, and storage apparatus
JP4889985B2 (ja) ストレージ階層を考慮したボリュームグループを管理する方法
US7502904B2 (en) Information processing system and management device for managing relocation of data based on a change in the characteristics of the data over time
JP4993928B2 (ja) 記憶システム及び記憶領域解放方法並びにストレージシステム
US7587553B2 (en) Storage controller, and logical volume formation method for the storage controller
US6912627B2 (en) Method of creating a storage area & storage device
CN102334093B (zh) 存储控制装置以及虚拟卷的控制方法
US7660946B2 (en) Storage control system and storage control method
US8307186B2 (en) Computer system performing capacity virtualization based on thin provisioning technology in both storage system and server computer
US7441080B2 (en) Method of and system for controlling attributes of a plurality of storage devices
US6651154B1 (en) Method, system, and program for expanding the storage space in an array of storage units
EP1818796A2 (en) Storage device controller
JP2009104421A (ja) ストレージアクセス装置
JP5957520B2 (ja) データ管理システム及び方法
US8271759B2 (en) Storage system
JP5533252B2 (ja) ディスクアレイ装置及びディスクアレイ装置の制御方法
JP2007133807A (ja) データ処理システム、ストレージ装置及び管理装置
JP2009187468A (ja) 記憶システム、解除方法及び副側のストレージ装置
JP2004355638A (ja) 計算機システム及びそのデバイスの割り当て方法
JP2005202893A (ja) 記憶デバイス制御装置、ストレージシステム、プログラムを記録した記録媒体、情報処理装置、及びストレージシステムの制御方法
JP2009205415A (ja) ストレージシステム、コピー方法及び正側のストレージ装置
WO2005006175A1 (ja) 複数の論理ユニットをグループ化する方法、受信した要求の処理方法、複数の論理ユニットをグループ化する装置及び、受信した要求の処理装置
WO2017085792A1 (ja) ストレージシステム、及びストレージシステムの制御方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005503857

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2003817426

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11325442

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003817426

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11325442

Country of ref document: US

WWW Wipo information: withdrawn in national office

Ref document number: 2003817426

Country of ref document: EP