WO2014087518A1 - ネットワークシステム及びその運用方法 - Google Patents

ネットワークシステム及びその運用方法 Download PDF

Info

Publication number
WO2014087518A1
WO2014087518A1 PCT/JP2012/081656 JP2012081656W WO2014087518A1 WO 2014087518 A1 WO2014087518 A1 WO 2014087518A1 JP 2012081656 W JP2012081656 W JP 2012081656W WO 2014087518 A1 WO2014087518 A1 WO 2014087518A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage
rank
tier
information
network system
Prior art date
Application number
PCT/JP2012/081656
Other languages
English (en)
French (fr)
Inventor
宏典 仲眞
Original Assignee
株式会社 日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立製作所 filed Critical 株式会社 日立製作所
Priority to PCT/JP2012/081656 priority Critical patent/WO2014087518A1/ja
Priority to US13/981,228 priority patent/US8793373B2/en
Publication of WO2014087518A1 publication Critical patent/WO2014087518A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/561Adding application-functional data or data for application control, e.g. adding metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching

Definitions

  • the present invention relates to a network system for allocating storage resources to a host device and an operation method thereof.
  • SSPs Storage service providers
  • SSP Storage service providers
  • the like are strengthening network systems by introducing additional storage devices to satisfy the storage capacity required by end users.
  • SSP etc.
  • Patent Document 1 discloses a method and system for enabling storage virtualization of a physical storage device when allocating storage resources to a virtual machine (hereinafter referred to as VM) operating on a physical host device. This method and system allocates a storage resource that satisfies the requirements regarding storage characteristics and capacity (quota) included in a storage resource allocation request from the VM to the VM.
  • VM virtual machine
  • Patent Document 2 discloses a technology for efficiently and efficiently allocating storage resources in a balanced manner in terms of performance and capacity.
  • the technology of Patent Document 2 relates to a storage system and its operation method.
  • This storage system includes performance information indicating I / O performance of a storage device such as an HDD (Hard Disk Drive) constituting the array group, and the storage device. Capacity information representing the storage capacity is received, performance requirement information and capacity requirement information required for the storage area are received, and a storage device that satisfies the requirements is selected.
  • HDD Hard Disk Drive
  • SSP etc. wants to minimize the additional introduction cost of storage devices as much as possible, but it is necessary to satisfy users with high performance requirements in an environment where users with high performance requirements and users with low performance are used together. . Therefore, the SSP is forced to introduce an expensive storage device with high performance. The cost of introducing expensive storage devices and maintenance costs are high, and the usage costs of users are inevitably high, so that storage with high usage fees and excessive performance is necessary for users who need only low performance. Resources will be used.
  • pNFS parallel NFS
  • NFS Network File System
  • IETF Internet Engineering Task Force
  • pNFS Using this pNFS, the performance of the distributed file system can be improved.
  • pNFS is unaware of the specifications of the individual storage devices that make up the data storage at the data storage destination and the type of storage medium installed in the storage device. For this reason, pNFS has a problem that the characteristics of each storage device and storage medium cannot be fully utilized.
  • the present invention provides a storage device that takes advantage of the characteristics of individual storage devices constituting the data storage and individual storage media installed in the storage device in an environment where a distributed file system is adopted for the network system.
  • the purpose is to improve system performance.
  • the network system of the present invention collects storage configuration information of a storage resource that is a data storage destination and VM resource information related to a VM that is a storage resource allocation destination. Then, storage areas for different storage tiers having different characteristics are configured based on the collected storage configuration information, and the storage tier of the storage area to be allocated to the VM is specified by the VM resource information.
  • an appropriate storage resource can be allocated to a virtual machine operating on the host device, so that the performance of the entire system can be improved.
  • FIG. 1 is a diagram showing a configuration example of a network system according to the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of the internal configuration of the storage apparatus.
  • FIG. 3 is a diagram illustrating an internal configuration example of the metadata server.
  • FIG. 4 is a schematic diagram of a network system compliant with the conventional pNFS standard.
  • FIG. 5 is a sequence diagram illustrating a process of allocating storage resources to the VM.
  • FIG. 6 is a flowchart showing storage LU Tier rank generation / update processing.
  • FIG. 7 is a diagram illustrating a configuration example of a model rank determination table.
  • FIG. 8 is a diagram illustrating a configuration example of an LU rank management table.
  • FIG. 1 is a diagram showing a configuration example of a network system according to the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of the internal configuration of the storage apparatus.
  • FIG. 3 is a diagram illustrating an internal configuration
  • FIG. 9 is a flowchart showing processing for determining the model rank in the storage apparatus.
  • FIG. 10 is a flowchart showing the medium rank determination process of the storage medium constituting the LU.
  • FIG. 11 is a diagram illustrating a configuration example of an LU Tier rank determination table.
  • FIG. 12 is a diagram illustrating a configuration example of the LU Tier rank management table.
  • FIG. 13 is a flowchart showing LU Tier rank determination processing.
  • FIG. 14 is a diagram illustrating a configuration example of a resource-specific share rank determination table.
  • FIG. 15 is a diagram illustrating a configuration example of a VM resource share rank management table.
  • FIG. 16 is a flowchart showing a VM resource information collection process.
  • FIG. 17 is a diagram illustrating a configuration example of a VM Tier rank determination table.
  • FIG. 18 is a diagram illustrating a configuration example of a VM Tier rank management table.
  • FIG. 19 is a flowchart showing the VM Tier rank determination process.
  • FIG. 20 is a diagram illustrating a configuration example of a volume layout table.
  • FIG. 21 is a flowchart showing LU Tier rank determination processing and volume layout generation / update processing.
  • FIG. 22 is a diagram illustrating a configuration example of a network system according to the second embodiment of the present invention.
  • FIG. 23 is a sequence diagram showing processing for assigning storage resources to a VM according to the second embodiment of the present invention.
  • FIG. 24 is a diagram illustrating a configuration example of a network system according to the third embodiment of the present invention.
  • FIG. 25 is a diagram showing a configuration example of a network system according to the fourth embodiment of the present invention.
  • the processing is executed by a processor such as an MP (Micro Processor) or a CPU (Central Processing Unit), and performs a predetermined process.
  • a processor such as an MP (Micro Processor) or a CPU (Central Processing Unit)
  • the processing subject may be a processor because the storage resources (for example, a memory) and a communication interface device (for example, a communication port) are used as appropriate.
  • the processor may have dedicated hardware in addition to the CPU.
  • the computer program may be installed on each computer from a program source.
  • the program source may be provided by, for example, a program distribution server or a storage medium.
  • each element for example, the controller can be identified by a number or the like, but other types of identification information such as a name may be used as long as it is identifiable information.
  • identification information such as a name
  • the same reference numerals are given to the same parts, but the present invention is not limited to the present embodiment, and any application examples that meet the idea of the present invention are technical. Included in the range. Further, unless specifically limited, each component may be plural or singular.
  • FIG. 1 is a diagram showing a configuration example of a network system 1 according to the first embodiment of the present invention.
  • the network system 1 makes it possible to allocate storage resources to VMs according to the characteristics of VMs (virtual machines) that could not be realized with conventional distributed file systems.
  • the network system 1 includes one or more host devices 2, one or more data storages 3, a storage management server 4, and a metadata server 5, and the devices are connected via networks 6, 7, and 8.
  • the host device 2 is a computer device provided with information processing resources such as a CPU and a memory, and includes, for example, a personal computer (hereinafter abbreviated as a PC), a mainframe, a server, and the like.
  • the host device 2 may be composed of one computer device or a plurality of computer devices.
  • the host device 2 further includes an information input device (not shown) such as a keyboard, a pointing device, and a microphone, and an information output device (not shown) such as a monitor display and a speaker.
  • an information input device such as a keyboard, a pointing device, and a microphone
  • an information output device such as a monitor display and a speaker.
  • the host device 2 can also include a virtualization mechanism capable of operating a plurality of VMs 10 on a physical computer device.
  • a virtualization mechanism capable of operating a plurality of VMs 10 on a physical computer device.
  • hypervisor virtualization a case where “hypervisor virtualization” is used for the host device 2 among “host OS virtualization” and “hypervisor virtualization”, which are widely used virtualization methods. The following description is given as an example.
  • the hypervisor becomes a virtualization layer on the physical computer device, and a plurality of VMs 10 can be simultaneously operated on the virtualization layer.
  • the hypervisor 9 manages physical resources such as a CPU, a memory, a storage device, and a connection path (hereinafter referred to as a path) as a virtual resource pool. Then, the hypervisor 9 provides each VM with a resource required for each VM as a virtual resource from the virtual resource pool. The hypervisor 9 manages and holds virtual resource allocation information for each VM 10 as VM resource information 11.
  • the networks 6, 7, and 8 are configured by an arbitrary network such as a SAN (Storage Area Network), a LAN (Local Area Network), the Internet, a public line, or a dedicated line. Communication between the host device 2, the data storage 3, the storage management server 4, and the metadata server 5 via the networks 6, 7 and 8 is, for example, according to the fiber channel protocol when the network 6, 7 or 8 is a SAN. If it is a LAN, it is performed according to TCP / IP (Transmission Control Protocol / Internet Protocol).
  • TCP / IP Transmission Control Protocol / Internet Protocol
  • the data storage 3 is composed of one or more storage devices, and in this embodiment, one data storage 3 is configured with five storage devices 13a, 13b, 13c, 13d, and 13e. (Hereinafter, the storage devices 13a to 13e may be referred to as the storage device 13).
  • Each storage device 13 may be the same or different in performance, capacity, and usage. Depending on the characteristics of the VM10, one or more storage devices with different performance, capacity, and usage may be allocated to the VM10 when a virtual storage resource configured using multiple storage tier LUs (Logical Units) is allocated to the VM10. If the storage tiers are configured in combination with various storage tiers, the degree of freedom in tier selection increases and allocation becomes easier.
  • tier LUs Logical Units
  • a group of high-end storage devices 13a and 13b aimed at improving fault tolerance and I / O performance by multiplexing parts and connections from the cost with five storage devices, cost and performance
  • the example which forms is shown.
  • distributed storage of data may be realized by using a plurality of inexpensive storage devices such as low-end storage devices and entry storage devices.
  • the storage device 13 constituting the data storage 3 has, as storage access protocols, NAS (Network Attached Storage) that is accessed on a file basis, SAN (Storage Area Network) storage that is accessed on a block basis, and OSD (Object that is accessed on an object basis).
  • An interface such as Storage Device can be used.
  • a description will be given on the assumption that SAN storage is adopted for the storage device 13 and the host device 2 and the storage device 13 communicate with each other using the SAN protocol.
  • the storage apparatus 13 can form one or more LUs 12a, 12b, 12c,... 12o (hereinafter sometimes collectively referred to as LU12) in the apparatus, and can be managed in units of LUs. .
  • these networks can be connected by wire or wirelessly.
  • the storage management server 4 is a computer device provided with information processing resources such as a CPU and a memory, and is composed of, for example, a PC, a mainframe, a server, and the like, similar to the host device 2.
  • the storage management server 4 is connected to each storage device 13 via the network 8 and communicates with a maintenance management terminal (not shown) of each storage device 13 to thereby maintain and set / change storage configurations of the plurality of storage devices 13. Can be centrally managed. *
  • the storage management server 4 is installed and information on physical resources (number of CPUs, cache memory capacity, type / capacity / performance of storage medium, number of external connection paths, etc.) provided in each storage device 13.
  • Software local copy, synchronous / asynchronous remote copy, virtualization, thin provisioning, dynamic tier control, etc.
  • the storage management server 4 is connected to the host device 2 and the metadata server 5 via the network 7 and sends the storage configuration information 14 to the host device 2 and the metadata server 5.
  • the metadata server 5 is a computer device provided with information processing resources such as a CPU and a memory, and includes a PC, a mainframe, a server, and the like, similar to the host device 2 and the storage management server 4.
  • the metadata server 5 is connected to the host device 2, the storage device 13, and the storage management server 4 via the network 7.
  • the metadata server 5 controls a distributed file system that executes data input / output from the host device 2 to the data storage 3 in parallel and writes and reads data across a plurality of storage devices 13 constituting the data storage 3. It is a device to do.
  • HDFS Hadoop Distributed File System
  • the metadata server 5 is a virtual network composed of layered LUs, which is a feature of the present invention, in addition to a function provided as a pNFS standard in a metadata server of a standard network system constructed according to the pNFS standard described later (FIG. 4).
  • a Tier determination / volume layout function unit 15 and storage / VM / Tier information 16 for enabling storage resources to be allocated according to VM characteristics are provided.
  • the Tier determination / volume layout function unit 15 determines the Tier rank of each LU using the storage configuration information 14 described above, and determines the Tier rank of each VM using the virtual resource allocation information required by each VM 10. To do.
  • the Tier determination / volume layout function unit 15 determines the volume layout represented by the LU type (Tier rank) required by the VM 10 and the number thereof from the determined Tier rank of the LU and the Tier rank of the VM. .
  • the storage / VM / Tier information 16 includes storage configuration information collected by the Tier determination / volume layout function unit 15, VM resource information, the Tier rank and VM Tier rank of the determined and determined LU, the determined volume layout, etc. Store information.
  • the LU tier is similar in characteristics required by the host device for the LU, such as I / O processing speed, failure tolerance, cost, capacity, etc. of the storage device or storage medium forming the LU. Are grouped into one category. Also, VM Tiers have the same or similar characteristics depending on the usage such as mission critical, OLTP (On-Line Transaction Processing), general office work, and archiving based on the virtual CPU and virtual memory capacity allocated to the VM. Are grouped into one category.
  • LUs and VMs having the same or similar characteristics are classified and ranked into groups called Tiers to which the respective characteristics correspond.
  • the VM Tier rank is determined based on the characteristics of each VM, and the LU Tier rank that matches the determined VM Tier rank is determined.
  • the volume layout (LU layout: storage location) is determined by determining the LU type that matches the determined LU Tier rank and the number of LUs according to the distribution policy (such as the number of storage devices that distribute and store data and files). LU information) is determined.
  • FIG. 2 is a diagram illustrating an example of the internal configuration of the storage apparatus.
  • FIG. 2 shows a configuration example of a high-end storage device 13a that is expensive but has high performance and high reliability among the SAN storages used as the storage device 13 in this embodiment.
  • the high-end storage device 13a unlike PCs and PC servers used for general purposes, is specialized in storage and is excellent in performance and expandability, and can be configured in a scalable manner according to the application. However, the use of a PC or a PC server as the storage device 13 is not prevented.
  • the storage device 13 a includes a storage medium group 202 composed of storage media 201 such as a plurality of SSDs (Solid State Drives) and HDDs, and a controller unit 203 that controls the storage medium group 202.
  • storage media 201 such as a plurality of SSDs (Solid State Drives) and HDDs
  • controller unit 203 that controls the storage medium group 202.
  • Examples of the storage medium 201 constituting the storage medium group 202 include optical disks in addition to HDDs such as the above-described SSD and SAS (Serial Attached SCSI) drives, nearline SAS drives, and SATA (Serial ATA) drives.
  • HDDs such as the above-described SSD and SAS (Serial Attached SCSI) drives, nearline SAS drives, and SATA (Serial ATA) drives.
  • Each storage medium 201 is operated by the control unit 203 in a RAID (Redundant Array of Inexpensive Disks) method, and realizes high reliability in the entire storage apparatus 13a.
  • a RAID group is composed of a plurality of storage media, and one or more LUs 12 can be generated in each physical storage area provided by each RAID group.
  • the storage device 13a generates three LUs 12a, 12b, and 12c inside the device and provides them to the host device 2.
  • data from the host apparatus 2 is stored in the LU 12 in units of a predetermined size block.
  • one piece of data is divided and stored in a plurality of LUs 12 of different storage apparatuses 13. Since data is distributed and stored in a plurality of LUs 12, each LU 12 needs to be identified. For this reason, each LU 12 is assigned a unique identifier (hereinafter referred to as an LU number) and is sent to the VM 10. The virtual storage resource is allocated using this LU number.
  • the LU 12 is configured on a physical storage area of a RAID group composed of the same type of storage medium in the network system 1, and the storage tier (grouped for each type of storage medium constituting the LU 12).
  • An example of forming (Tier) will be described.
  • the network system 1 selects two or more LUs 12 made of the same type of storage medium from different storage devices 13 and lays out (forms) one volume across the plurality of LUs 12.
  • the controller unit 203 includes a channel interface 204, a CPU 205, a local memory 206, a data transfer controller 207, a cache memory 208, a disk interface 209, and a communication interface 211.
  • a channel interface 204 In the high-end storage device 13a, high reliability and high availability are realized by using a plurality of components of the controller unit 203 such as the channel interface 204 and the CPU 205 for redundancy.
  • the channel interface 204 is a communication controller that connects the storage device 13a and the network 6 to the network 7. Using the channel interface 204, the storage apparatus 13 sends write data from the host apparatus 2, read data to the host apparatus 2, volume layout information regarding various volume layouts, various commands, and the like with the host apparatus 2 and the metadata server 5. Send and receive between.
  • the CPU 205 is a processor that controls various processes such as a data input / output process to the storage medium 201 in response to a data input / output request (data write request or data read request) from the host device 2.
  • the local memory 206 is used as a work memory of the CPU 205 and stores various control programs and system control information read from the cache memory 208, calculation results in the CPU 205, and the like.
  • the data transfer controller 207 is a controller that controls data transfer among the CPU 205, the channel interface 204, the disk interface 209, and the cache memory 208.
  • the cache memory 208 is a memory for temporarily storing data transferred between the channel interface 204 and the disk interface 209.
  • the cache memory 208 also stores system control information read from the storage medium 201 when the storage apparatus 13 is activated, various control programs, and the like.
  • the CPU 205 reads requests from the cache memory 208 and executes these control programs as necessary to process requests from the host apparatus 2 to the storage apparatus 13.
  • the disk interface 209 is a communication controller that connects the storage medium 201 and the controller unit 203. For example, according to the fiber channel protocol, transmission of write data to the storage medium 201, reception of data read from the storage medium 201, and Send and receive various commands.
  • the maintenance management terminal 210 is a terminal that performs maintenance and management of the storage apparatus 13, and for example, a notebook PC is used.
  • the maintenance management terminal 210 is connected to the network 8 and is also connected to the controller unit 203 via the communication interface 211.
  • the maintenance management terminal 210 monitors the presence or absence of a failure in the storage device 13, and displays failure information such as a failure location and an emergency level when a failure occurs. It has a function of displaying on a display and a function of notifying a system administrator.
  • the system administrator can use the maintenance management terminal 210 to set the system configuration in the storage apparatus 13 or update the set configuration.
  • the storage apparatus 13 forms one or more LUs 12 according to the configuration and operation described above and provides them to the host apparatus 2, and transmits the storage configuration information 14 set and managed in the storage apparatus 13 to the metadata server 5. it can.
  • FIG. 3 is a diagram illustrating an internal configuration example of the metadata server.
  • the metadata server 5 holds metadata indicating the storage location and storage method of files and data. Note that the host device 2 and the storage management server 4 have the same configuration as the metadata server 5.
  • the metadata server 5 includes a CPU 51, an input device 52, an output device 53, a communication interface 54, a memory 55, and a storage device 56, and is connected to each other via an internal bus 57.
  • the CPU 51 is a processor that controls the entire metadata server 5.
  • the CPU 51 reads various programs stored in the memory 55 and storage configuration information stored in the storage device 56 as necessary, and executes processing such as Tier rank determination and volume layout generation described later. .
  • the input device 52 is a device that inputs information to the metadata server 5 from the outside, and is, for example, a keyboard, a mouse, a pointing device, a microphone, or the like.
  • the output device 53 is a device that outputs information to the outside of the metadata server 5, and is, for example, a display, a speaker, a printer, or the like.
  • the communication interface 54 is a communication controller for connecting the host device 2, the data storage 3, the storage management server 4 and the metadata server 5 via the network 7.
  • the communication interface 54 is, for example, a NIC (Network Interface Card).
  • the memory 55 temporarily stores various programs such as the OS and applications and the calculation results of the CPU 51, and is configured by a volatile memory such as a RAM (Random Access Memory) or a nonvolatile memory such as a flash memory. .
  • the memory 55 stores a Tier determination / volume layout function unit 15 which is a control program group for realizing the present invention.
  • the storage device 56 is a non-volatile device that stores various programs, various information, and the like, and uses, for example, a plurality of HDDs.
  • the storage device 56 stores storage / VM / Tier information 16 that is a feature of the present invention.
  • the metadata server 5 is composed of a hierarchical LU that is a feature of the present invention, in addition to the functions possessed as the pNFS standard in the metadata server of a standard network system constructed in accordance with the pNFS standard described later (FIG. 4).
  • the virtual storage resource includes a Tier determination / volume layout function unit 15 and storage / VM / Tier information 16 for allocating the virtual storage resource according to the VM characteristics.
  • the Tier determination / volume layout function unit 15 includes a storage Ltier management program 301 that manages LU Tiers, a VM Tier management program 302 that manages VM Tiers, and a volume management program 303 that manages volume layouts.
  • the storage LU tier management program 301 determines the tier rank of the LU 12 held by each storage device 13 based on the storage configuration information collection processing 304 that collects the storage configuration information 14 of the storage device 13 and the collected storage configuration information 14 A storage LU tier generation / update process 305 is provided.
  • the VM Tier management program 302 includes a VM resource information collection process 306 that collects VM resource information related to virtual resource resources allocated to the VM 10, and a VM Tier rank determination process that determines the Tier rank of each VM 10 based on the collected VM resource information 307.
  • the volume management program 303 determines the assigned LU Tier rank determination processing 308 for determining the Tier rank of the LU 12 assigned to each VM 10, and the LU 12 Tier rank assigned to the determined VM 10.
  • a volume layout process 309 for determining the volume layout of the virtual storage resource provided to the VM 10 based on the distribution policy is provided.
  • the distribution policy determines how many storage apparatuses 13 store and distribute one file or data block. For example, if the distribution policy is to store files and data blocks distributed to three storage devices 13, three LUs 12 having the same Tier rank are selected from the three storage devices, and the files and data blocks are selected. Are stored simultaneously in each LU 12. That is, if the distribution policy is “3”, the volume management program 303 selects three LUs 12 having the same Tier rank.
  • the volume layout is to form a volume with a plurality of LUs 12 (storage destination LUs) selected according to the distribution policy, and to associate a VM number for identifying the VM 10 with a storage destination LU number group.
  • LUs 12 storage destination LUs
  • the storage / VM / Tier information 16 includes the storage configuration information 14 collected by the Tier determination / volume layout function unit 15, the VM resource information 11, the Tier rank of the LU 12 and the Tier rank of the VM 10 determined by each program, the determined allocation LU Information such as Tier rank and volume layout.
  • the tier determination / volume layout function unit 15 of the metadata server 5 and the storage / VM / Tier information 16 are provided, so that virtual storage resources that match the VM characteristics can be appropriately allocated to each VM 10. Is possible.
  • FIG. 4 is a schematic diagram of a network system compliant with the conventional pNFS standard. The configuration and operation of a conventional standard distributed file system 40 will be described with reference to FIG.
  • the distributed file system 40 includes a pNFS client 401, a data storage 402 including a plurality of storage devices 403, and a metadata server 404.
  • the pNFS client 401, the data storage 402, and the metadata server 404 correspond to the host device 2, the data storage 3, and the metadata server 5 of FIG.
  • transmission / reception of metadata which is data storage location information, is executed between the pNFS client 401 and the metadata server 404 in accordance with the pNFS protocol.
  • transmission / reception of actual data is executed between the pNFS client 401 and the data storage 402 according to a predetermined storage access protocol without passing through the metadata server 404.
  • the metadata server 404 manages a volume layout representing how the actual data is distributed and stored in the plurality of storage apparatuses 403 constituting the data storage 402. This volume layout is transmitted and received between the metadata server 404 and the data storage 402 according to a predetermined control protocol.
  • the metadata server 404 provides the pNFS client 401 with metadata indicating a data storage destination so that the pNFS client 401 can directly access the data storage 402.
  • the metadata server 404 holds metadata / layout information including metadata and volume layout configuration information.
  • the pNFS client 401 is connected to the storage device 403 constituting the data storage 402 through a parallel data path.
  • the pNFS client 401 can simultaneously access a plurality of storage apparatuses 403 in parallel with this parallel data path based on the metadata acquired from the metadata server 404.
  • the state of the metadata server 404 and the state of the data storage 402 are synchronized.
  • the metadata communication and the actual data communication are separated, and the pNFS client accesses a plurality of storage devices simultaneously in parallel.
  • high-speed data writing to the data storage and high-speed data reading from the data storage are realized.
  • FIG. 5 is a sequence diagram showing a process of allocating storage resources to a VM.
  • FIG. 5 is a sequence diagram between the system apparatuses showing the entire processing from the generation of the virtual storage resource allocation request to the newly created VM 10 to the completion of the allocation of the virtual storage resource to the VM 10 in the network system 1. is there.
  • a request between each device constituting the network system 1, a response to the request, and a process in each device will be specifically described.
  • the main subject of the processing is the device itself or a program such as a hypervisor that operates on the device, a CPU or various controllers that operate the device or program may be used.
  • the hypervisor 9 of the host device 2 receives a new VM creation request (or an existing VM configuration change request or the like) from the user, it is a virtual host resource (hereinafter abbreviated as a virtual resource) of the host device 2.
  • a virtual CPU or virtual memory is allocated to a new VM according to the contents of the creation request (or update request).
  • the virtual CPU has processing performance such as the number of CPUs / operation frequency / IOPS (I / O per second).
  • IOPS I / O per second
  • the virtual resource information allocated to the new VM (hereinafter referred to as new VM) 10 is managed as VM resource information 11 by the hypervisor 9.
  • the hypervisor 9 executes a process of assigning virtual storage resources to the new VM 10.
  • the above processing is the new VM virtual resource allocation acceptance processing in FIG. 5 (SP501).
  • the hypervisor 9 requests the metadata server 5 to allocate a new VM storage resource including information on the storage capacity required for the new VM 10 (SP502).
  • the metadata server 5 Upon receiving the new VM storage resource allocation request from the hypervisor 9, the metadata server 5 requests the storage management server 4 to obtain the latest storage configuration information (SP503).
  • the storage management server 4 When the storage management server 4 receives the latest storage configuration information acquisition request, the storage management server 4 transmits the storage configuration information 14 stored inside the apparatus to the metadata server 5 as the latest storage configuration information (SP504).
  • the storage management server 4 collects the storage configuration information of each storage device 13 again, not the storage configuration information 14 stored in itself, generates the latest storage configuration information 14, and sends it to the metadata server 5. You may transmit to.
  • the metadata server 5 performs storage LU tier generation / update processing based on the acquired latest storage configuration information 14, and determines the tier rank of the LU 12 generated in each storage device 13 (SP505).
  • SP503 and SP504 corresponds to the storage configuration information collection processing 304 of the storage LU Tier management program 301 shown in FIG. 3, and the processing of SP505 corresponds to the storage LU Tier generation / update processing 305. Detailed processing operations will be described with reference to FIGS.
  • the metadata server 5 sends a request for providing virtual host resource information to be allocated to the new VM to the hypervisor 9, that is, a request for acquiring the allocated virtual resource information for new VM. (SP506).
  • the hypervisor 9 When the hypervisor 9 receives the new virtual machine allocation virtual resource information acquisition request from the metadata server 5, the hypervisor 9 transmits the stored VM resource information 11 to the metadata server 5 (SP507).
  • the metadata server 5 performs a VM Tier rank determination process based on the acquired VM resource information 11, and determines the Tier rank of each VM 10 (SP508).
  • SP506 and SP507 corresponds to the VM resource information collection processing 306 of the VM Tier management program 302 shown in FIG. 3, and the processing of SP508 corresponds to the VM Tier rank determination processing 307. Detailed processing operations will be described with reference to FIGS.
  • the metadata server 5 determines the Tier rank of the LU assigned to each VM 10 (SP509).
  • the metadata server 5 selects the number of LUs 12 corresponding to the LU Tier rank determined in SP509 by the number required by the distribution policy, and lays out the virtual storage resource volume to be allocated to the VM 10 (SP510).
  • This volume layout information includes a VM number for identifying the VM 10, an LU number as a data storage destination, a storage capacity, and the like.
  • the metadata server 5 transmits a new VM storage resource allocation response including volume layout information to the hypervisor 9 and provides the volume of the laid out virtual storage resource to the VM 10 (SP511).
  • SP509 corresponds to the allocated LU Tier rank determination processing 308 of the volume management program 303 shown in FIG. 3, and the processing of SP510 and SP511 corresponds to the volume layout processing 309. Detailed processing operations will be described with reference to FIGS. 20 and 21.
  • FIG. 20 The processing of SP509 corresponds to the allocated LU Tier rank determination processing 308 of the volume management program 303 shown in FIG. 3, and the processing of SP510 and SP511 corresponds to the volume layout processing 309. Detailed processing operations will be described with reference to FIGS. 20 and 21.
  • the hypervisor 9 makes a storage allocation request for a new VM to the metadata server 5 without specifying the Tier rank of the LU 12 and specifying only the storage capacity.
  • the Tier rank of the required LU 12 may also be specified together with the storage capacity, and a new VM storage resource allocation may be requested to the metadata server 5.
  • the metadata server 5 omits the VM Tier rank determination process based on the acquired VM resource information 11, and adds the LU 12 corresponding to the LU Tier rank specified in the new VM storage allocation request according to the distribution policy.
  • a logical volume that is selected and allocated to the new VM 10 may be laid out.
  • virtual storage resources (storage tier LU) satisfying the VM characteristics can be appropriately allocated to the VM 10.
  • FIG. 6 is a flowchart showing storage LU Tier rank generation / update processing. This process is a flowchart showing the process from when the metadata server 5 receives the new VM storage resource allocation request from the hypervisor 9 until the storage LU Tier generation / update process is completed, from SP502 to SP505 in FIG. It corresponds to the process.
  • the storage LU tier management program 301 executes the processing shown in this flowchart, whereby the tier rank for each LU formed in the storage apparatus 13 can be determined and updated. This process is started when the metadata server 5 receives a new VM storage resource allocation request from the hypervisor 9.
  • the storage LU tier management program 301 sends the latest storage configuration information acquisition request to the storage management server 4.
  • the storage management server 4 receives the latest storage configuration information acquisition request
  • the storage management server 4 transmits the storage configuration information 14 stored inside the apparatus to the metadata server 5 as the latest storage configuration information.
  • the storage LU tier management program 301 receives it (SP601).
  • the storage LU tier management program 301 determines whether the storage LU tier rank (hereinafter referred to as LU tier rank) is the first determination by the storage device 13 itself or the LU of the storage device 13 based on the acquired latest storage configuration information 14. Determine (SP602).
  • the storage LU Tier management program 301 determines the model of each storage device 13 constituting the data storage 3 from the acquired latest storage configuration information 14 (SP604).
  • the storage LU tier management program 301 determines the type of the storage medium 201 that constitutes each storage LU (hereinafter LU) 12 (SP605).
  • the storage LU tier management program 301 determines the tier rank of each LU 12 and ends the processing (SP606).
  • the storage LU Tier management program 301 compares the latest storage configuration information acquired with the storage configuration information acquired last time, and the storage configuration has changed. (SP603).
  • the storage LU Tier management program 301 executes the processing from SP604 to SP606, updates the Tier rank of each LU 12, and ends the processing.
  • the storage LU Tier management program 301 ends the process.
  • the tier rank of each LU 12 in each storage device determined last time is used. By executing the above processing, a Tier rank can be set for each LU 12 of the storage apparatus.
  • FIG. 7 is a diagram illustrating a configuration example of a model rank determination table.
  • the model rank table 700 is a table for determining the model rank 701 that is the rank in each storage device 13 from the model name 702. Focusing on the fact that storage devices 13 of the same class are generally given the same series name, in this embodiment, a characteristic location indicating the same series name is extracted from the storage configuration information 14. Thus, the extracted information is registered and managed as the model name 702 in the model rank table 700.
  • a model having a name starting with “SSS” such as row 711 is ranked “high-end”, and a model having a name beginning with “BBB” is designated as “midrange” as shown in row 712. Yes.
  • the “***” portion such as “SSS ***” indicates that any name may be used.
  • model rank determination process of FIG. 9 it is determined whether or not the storage device name hits the model name 702, and if it hits, the storage device 13 is ranked with the corresponding model rank 701.
  • the classification of the model rank may be performed based on other information that can identify each storage device 13 that can be acquired by the storage management server 4 without depending on the information indicating the same series name.
  • FIG. 8 is a diagram illustrating a configuration example of an LU rank management table.
  • the LU rank management table 800 is a table for managing the model rank 802 and medium rank 803 for each LU (LU number 801).
  • the model rank and medium rank for the LU 12 determined by the model rank determination process (FIG. 9) and the medium rank determination process (FIG. 10) described later are stored and managed.
  • the LU rank management table 800 is referred to in the process of determining the LU tier rank described in FIG.
  • FIG. 9 is a flowchart showing a process for determining the model rank of the storage apparatus 13 constituting the data storage 3.
  • the storage LU tier management program 301 determines the model rank of each storage device 13 using the model rank determination table 700 and stores the result in the LU rank management table 800.
  • This process is a model rank determination process in SP604 of FIG.
  • MTBF Mobile Time Between Failures
  • MTTR Storage devices that can obtain an average repair time (Mean Time To Repair) small) shall be a high-end rank group.
  • a storage device that is used as a file server or Web server for sharing in-house information and can achieve a balance between cost and performance is made a mid-range rank group.
  • a storage apparatus configured to be suitable for backup of large-capacity data and long-term storage of data is set as an archive rank group. Then, ranking as the storage device 13 is performed using a model rank determination table 700 indicating which model belongs to each group. The specific operation will be described.
  • the storage LU tier management program 301 extracts the model name of each storage device 13 and the LU number that is information of the LU 12 configured inside the device from the acquired latest storage configuration information 14.
  • the storage LU tier management program 301 compares the extracted model name with the model name 802 of the model rank determination table 700 to determine whether the storage device is registered in the high end rank whose model rank is “high end” (SP901). ).
  • the storage LU Tier management program 301 records the LU number and the high-end rank in the LU rank management table 800 of FIG. The process ends (SP902). For example, if the storage apparatus 13a has LUs with numbers 00 to 02, the LU number 801 stores “high end” in the entry of the model rank 802 corresponding to “LU00” to “LU02”.
  • the storage LU Tier management program 301 determines whether it is a storage device registered in the midrange rank (SP903). If the storage device is registered in the midrange rank (“Yes” in SP903), the storage LU Tier management program 301 records the LU number and the midrange rank in the LU rank management table 800, and ends the processing. (SP902).
  • the storage LU Tier management program 301 determines whether it is a storage device registered in the archive rank (SP904). If the storage device is registered in the archive rank (“Yes” in SP904), the storage LU Tier management program 301 records the LU number and the archive rank in the LU rank management table 800, and ends the processing ( SP902).
  • the storage LU Tier management program 301 has no LU number and model rank in the LU rank management table 800 as shown in row 814. That is, “no model information” is recorded, and the process ends (SP905).
  • model ranks are classified into four types: high end, mid range, archive, and no model information.
  • the number of ranks may be larger or smaller.
  • the rank criteria need not be classified as high-end, mid-range, and archive according to these performances and applications.
  • the LU information configured in the storage apparatus 13 and the model rank can be determined, and the information corresponding to the entries of LU number 801 and model rank 802 in the LU rank management table 800 Can be stored.
  • FIG. 10 is a flowchart showing the medium rank determination process of the storage medium constituting the LU.
  • the storage LU Tier management program 301 determines the type of the storage medium 201 constituting the LU 12 and performs ranking, and stores the ranking result in the entry of the medium rank 803 of the LU rank management table 800. This process is the medium rank determination process in SP605 of FIG.
  • SSD is the medium rank “A” as the storage medium 201 having excellent performance in terms of throughput and I / O response time
  • the SAS drive is the medium rank “B” as the storage medium having the next performance after the SSD, and the others.
  • the storage media are classified into three media ranks “C”.
  • the storage LU tier management program 301 determines whether the storage medium 201 constituting each LU 12 is an SSD based on the acquired latest storage configuration information 14 (SP1001).
  • the storage LU Tier management program 301 sets “A” to the entry of the medium rank 803 in the LU rank management table 800 as shown in the row 811. Recording is performed, and the process ends (SP1002).
  • the storage LU Tier management program 301 determines whether the storage medium is a SAS drive (SP1003).
  • the storage LU Tier management program 301 sets “B” to the entry of the medium rank 803 in the LU rank management table 800 as shown in the row 812. Recording is performed, and the process is terminated (SP1004).
  • the storage LU Tier management program 301 sets “C” to the entry of the medium rank 803 in the LU rank management table 800 as shown in line 813. Recording is performed, and the processing is terminated (SP1005).
  • the media rank is classified into three levels A, B, and C, but the number of rank levels may be larger or smaller.
  • the medium type to be determined is classified into three types other than SSD, SAS, SSD, and SAS.
  • near-line SAS drive, SATA drive, optical drive, FC (Fibre Channel) are used.
  • FC Fibre Channel
  • each LU 12 is configured with the same type of storage medium is described.
  • the different storage medium configuration rank “D” is used. "Etc. may be provided for classification.
  • the storage medium constituting the LU can be ranked, and the result of ranking the medium rank 803 entry of the LU rank management table 800 is stored.
  • the LU number, the corresponding model rank and medium rank can be managed.
  • FIG. 11 is a diagram illustrating a configuration example of an LU Tier rank determination table.
  • the LU tier rank determination table 1100 determines an LU tier rank from the model rank 1201 and medium rank 1202 of the LU 12 in the storage apparatus 13, and is composed of a model rank 1101, a medium rank 1102, and an LU tier rank 1110.
  • Tier 0 is the highest rank
  • Tier 3 is the lowest rank
  • LU capable of high-speed I / O processing is changed to a higher-ranked LU Tier
  • I / O processing is slow but large at low cost.
  • LUs that require capacity storage are classified into lower rank LU Tiers.
  • the storage LU tier management program 301 determines that the LU tier rank 1110 is “Tier0” with the model rank 1101 being “high end” and the medium rank 1102 is “A”, and the “midrange” is “B”.
  • the Tier rank 1110 is determined as “Tier1.5”.
  • the LU tier rank determination table 1100 of this embodiment shows a table for determining the corresponding LU tier rank based on the model rank 1101 classified into four stages in the LU rank management table 800 and the medium rank 1102 classified into three stages.
  • the LU Tier rank determination table 1100 may be configured by classifying the model rank into 3 levels or less or 5 levels or more, and the medium rank may also be configured by classifying from 2 levels to 4 levels or more. Good.
  • the LU tier rank is classified into seven stages: “Tier0”, “Tier0.5”, “Tier1”, “Tier1.5”, “Tier2”, “Tier2.5”, “Tier3”.
  • the LU tier rank determined by each model rank and each media rank is an example, and the LU tier rank determination method different from this embodiment, for example, “high”, “medium”, “low” instead of the model rank
  • the LU tier rank may be determined by defining the three-stage model performance ranks in place of the medium rank and defining the four-stage medium performance ranks of “high speed”, “fast”, “normal”, and “slow”.
  • FIG. 12 is a diagram illustrating a configuration example of the LU Tier rank management table.
  • the LU tier rank management table 1200 is a table that stores and manages the LU number 1201 and various ranks corresponding thereto in the entries of the model rank 1202, the medium rank 1203, and the LU tier rank 1204.
  • the LU number 1201, the model rank 1202, and the medium rank 1203, information of the LU rank management table 800 is stored.
  • the LU tier rank 1204 stores information on the LU tier rank determined by the LU tier rank determination table 1100 from the model rank and the medium rank.
  • the LU Tier rank management table 1200 is referred to by an allocation LU Tier rank determination process of the volume management program 303 described later, and determines the LU Tier rank of the storage resource allocated to the VM 10.
  • an LU whose LU number 1201 is “LU00” has “high end” in the model rank 1202 entry, “A” in the media rank 1203 entry, and “Tier0” in the LU Tier rank 1204 entry.
  • “midrange”, “B”, and “Tier1.5” are stored and managed in “LU10” in the row 1212. The same applies to the rows 1213 and 1214.
  • FIG. 13 is a flowchart showing LU Tier rank determination processing.
  • the storage LU Tier management program 301 ranks the LU Tier and stores the ranking result in the LU Tier rank management table 1200. This process corresponds to the SP606LU Tier rank determination process of FIG.
  • the storage LU tier management program 301 acquires the model rank information and medium rank information of the LU 12 to be determined from the LU rank management table 800 (SP1301). For example, as shown in the row 813, in order to determine the Tier rank of the LU whose LU number 801 is “LU20”, the storage LU Tier management program 301 uses the model rank information “archive” from the model rank 802 as the medium rank. From 803, medium rank information “C” is acquired.
  • the storage LU Tier management program 301 acquires LU Tier rank information that matches both the acquired model rank information and medium rank information from the LU Tier rank determination table 1100 (SP1302).
  • the storage LU Tier management program 301 acquires “Tier 3” as the Tier rank information.
  • the storage LU tier management program 301 After acquiring the LU tier rank information, the storage LU tier management program 301 records the acquired LU number, model rank information, medium rank information, and LU tier rank information that is the determination result in the LU tier rank management table 1200 for processing. Is terminated (SP1303).
  • the LU Tier rank corresponding to the LU 12 can be determined by executing the processing from SP1301 to SP1303.
  • FIG. 14 is a diagram illustrating a configuration example of a resource-specific share rank determination table.
  • the resource-specific share rank determination table includes a virtual CPU share share 1401 and a virtual CPU share rank determination table 1400 in which a corresponding virtual CPU share rank 1402 is defined, a virtual memory allocation share 1411 and a corresponding virtual memory share rank 1412.
  • the virtual memory share rank determination table 1410 is defined as two types of tables.
  • the VM Tier management program 302 obtains a virtual CPU share rank determination table 1400 and a virtual memory share rank determination table 1410 from the virtual CPU allocation share and virtual memory allocation share in the new VM allocation virtual resource information 11 acquired from the hypervisor 9. Used to determine the virtual CPU share rank and the virtual memory share rank.
  • the allocation share 1401/1411 and the share rank 1402/1412 are classified into three stages, but the number of classifications may be larger or smaller.
  • other criteria such as the number of connected ports of the storage device 12 other than the CPU and the memory, the network path bandwidth (kbps: kilo bits per second), and the storage capacity (GB: Giga Bytes) may be adopted as a criterion.
  • the virtual resource amount allocated to each VM may be acquired, and the rank may be determined based on the virtual resource amount, or the share of each VM may be calculated from the total virtual resource amount. . For example, when there are a plurality of host devices 2, the virtual resource amount allocated to the VM operating on each host device 2 is acquired, and the share of each VM is calculated from the total virtual resource amount.
  • the share rank of each VM can be determined.
  • FIG. 15 is a diagram illustrating a configuration example of a VM resource share rank management table.
  • the VM resource share rank management table 1500 is a table for managing collection / determination results in a VM resource information collection process (FIG. 16) described later.
  • a VM resource information collection process (FIG. 16) described later.
  • the VM Tier determination information table 1500 is referred to in the VM Tier rank determination process 307 (FIG. 19) of the VM Tier management program 302 in order to determine the VM Tier rank.
  • FIG. 16 is a flowchart showing a VM resource information collection process.
  • the VM resource information collection process 306 (FIG. 3) acquires new VM allocation virtual resource information (VM resource information 11) from the hypervisor 9 and records it in the VM resource share rank management table 1500.
  • the VM Tier management program 302 acquires the allocated virtual resource information for new VM (VM resource information 11) from the hypervisor 9 (SP1601).
  • the VM Tier management program 302 determines whether the VM resource allocation method in the acquired new VM allocation virtual resource information is a share rank method represented by “high”, “standard”, or “low” (SP1602). ).
  • the share rank method is a method in which, for example, the allocated virtual memory capacity is not represented by quantitative information such as “2 GB” but by qualitative information such as share rank “high”, “standard”, and “low”. Based on the priorities compared with other VMs 10 operating simultaneously, the amount of virtual resources that can be used by the VM can be calculated from the entire resources and determined by this share rank method, so the allocated capacity of storage resources to the VM 10 Can be prevented.
  • the VM Tier management program 302 acquires the information (high / standard / low) of the share rank method (SP1603). Then, the VM Tier management program 302 stores the VM number in the acquired VM resource information 11, the acquired virtual CPU share rank, and the virtual memory share rank in each entry of the VM resource share rank management table 1500 (SP1604). The VM Tier management program 302 ends the process after storing the information.
  • the VM Tier management program 302 uses the VM resource information 11 (in this embodiment, share (%)) as a resource-specific share rank determination table ( Compared with the virtual CPU share rank determination table 1400 and the virtual memory share rank determination table 1410), the share rank for each virtual resource is obtained (SP1605). Then, the VM Tier management program 302 stores the VM number in the acquired VM resource information 11, the obtained virtual CPU share rank, and the virtual memory share rank in each entry of the VM resource share rank management table 1500 (SP1604). The VM Tier management program 302 ends the process after storing the information.
  • share (%) a resource-specific share rank determination table
  • the VM resource share rank is determined by the share (%) of the virtual resource, but it may be determined by the actual allocation amount instead of the share. Further, the VM resource share rank may be classified according to information on the OS and application installed in the VM, the number of VMs created at the same time, in addition to the information related to the virtual resource amount, or separated from the virtual resource amount. May be.
  • the virtual resource amount of all VMs operating on a plurality of host devices is acquired, and the ratio of the VM allocation resource share is calculated by calculating the ratio of the total virtual resources. You may decide.
  • FIG. 17 is a diagram illustrating a configuration example of a VM Tier rank determination table.
  • the VM Tier rank determination table 1700 is a table for determining the Tier rank 1710 of each VM 10 based on the virtual memory share rank 1701 and the virtual CPU share rank 1702 of each VM 10.
  • a VM Tier rank determination table 1700 for obtaining a VM Tier rank from a three-stage virtual memory share rank 1701 and a three-stage virtual CPU share rank 1702 is shown.
  • the VM Tier rank determination table 1700 may be a table according to the classification of the virtual CPU share rank and the virtual memory share rank, and the VM Tier rank 1710 has two or four or more levels of virtual CPU share rank. Or it may be obtained from the virtual memory share rank of four or more levels.
  • the VM Tier rank 1710 is classified into five, namely Tier 0, Tier 0.5, Tier 1, Tier 1.5, and Tier 2. However, the number of classifications may be larger or smaller. In this embodiment, the VM Tier rank 1710 is determined and determined based on the virtual memory share rank 1701 and the virtual CPU share rank 1702, but other virtual resource share ranks (for example, the operating frequency of the CPU, the number of ports connected to the storage device 13) The VM Tier rank may be determined based on the path bandwidth of the connection network), or may be determined by adding another virtual resource share rank.
  • FIG. 18 is a diagram illustrating a configuration example of the VM Tier rank management table.
  • the VM Tier rank management table 1800 shows the VM Tier rank ranked by the VM Tier rank determination processing 307 (specific operation is the flowchart of FIG. 19) of SP508 (FIG. 5), the share rank of the virtual CPU and the virtual memory. There is a table to manage with.
  • the VM Tier rank management table 1800 stores and manages information on the virtual CPU share rank 1802, the virtual memory share rank 1803, and the VM Tier rank 1804 obtained or requested by the VM Tier management program 302 for each VM number 1801.
  • the contents of the VM resource share rank management table may be set in the VM Tier rank management table 1800.
  • the VM Tier rank 1804 is obtained by the VM Tier management program 302 by comparing the virtual CPU share rank 1802 and the virtual memory share rank 1803 against the VM Tier rank determination table 1700.
  • the VM Tier rank management table 1800 is referred to by an allocation LU Tier rank determination process 308 (FIG. 21) of the volume management program 303 described later, and determines the LU Tier rank of the storage resource allocated to the VM.
  • FIG. 19 is a flowchart showing a VM Tier rank determination process.
  • the VM Tier rank determination process 307 is a process executed following the VM resource information collection process (FIG. 16), and determines the VM Tier rank and stores the rank in the VM Tier rank management table 1800.
  • the VM Tier management program 302 acquires the virtual CPU share rank and the virtual memory share rank in the VM 10 that determines the VM Tier rank from the VM resource share rank management table 1500 (FIG. 15) (SP1901).
  • the VM Tier management program 302 finds a VM Tier rank that matches both the virtual CPU share rank and the virtual memory share rank in the VM Tier rank determination table 1700 (SP1902).
  • the VM Tier management program 302 records the VM Tier rank and the corresponding VM number / virtual CPU share rank / virtual memory share rank in the VM Tier rank management table 1800, and ends the processing (SP1903).
  • the VM Tier rank in the VM 10 can be determined.
  • FIG. 20 is a diagram illustrating a configuration example of a volume layout table.
  • the volume layout table 2000 configures a virtual resource share rank, a VM Tier rank, an LU Tier rank, a storage destination LU number (a logical volume to be provided to the host device 2) for each VM 10 in order to provide a virtual storage resource for the VM.
  • This is a table for managing (LU group).
  • the volume layout table 2000 is a table that is generated and managed by the allocated LU Tier rank determination processing 308 (SP509 in FIG. 5) and the volume layout processing 309 (SP510 in FIG. 5) of the volume management program 303.
  • the volume layout table 2000 includes a VM number 2001 for identifying the VM 10, a virtual CPU share rank 2002, a virtual memory share rank 2003, a VM Tier rank 2004, an LU Tier rank 2005, and a storage destination LU number 2006.
  • the LU Tier rank 2005 is the Tier rank of the available LU determined in the assigned LU Tier rank determination process / volume layout process shown in FIG.
  • the storage destination LU number 2006 is LU information selected according to the distributed storage layout policy (hereinafter, distributed policy) in the allocated LU Tier rank determination process / volume layout process of FIG.
  • This embodiment shows a case where a distribution policy is applied in which data is divided into the same size and distributed and stored in three LUs having the same Tier rank. Therefore, information of three different LU numbers is stored in each entry of the storage destination LU number 2006. Note that the number of LUs to be distributed and stored may be larger or smaller than three.
  • Another distribution policy for example, a distribution policy that stores data in different sizes for each LU, or a distribution policy that determines a storage destination by combining LUs with different Tier ranks may be adopted. Further, the same LU may be shared by a plurality of VMs 10 (for example, “LU15” in row 2012 and row 2014 in FIG. 20).
  • each VM can be assigned a virtual storage resource (represented by LU Tier rank) composed of LUs in the storage tier according to the VM characteristics (represented by VM Tier rank) .
  • FIG. 21 is a flowchart showing LU Tier rank determination processing and volume layout generation / update processing.
  • the allocated LU Tier rank determination processing 308 (SP509) and the volume layout processing 309 (SP510) are executed by the volume management program 303 of the metadata server 5 after the VM Tier rank determination processing 307 (SP508) is completed.
  • the metadata server 5 returns a new VM storage resource allocation response to the hypervisor 9 of the host apparatus 2 and provides the laid out virtual storage resources to the VM 10.
  • the volume management program 303 refers to the LU tier rank management table 1200 and the VM tier rank management table 1800, and determines whether an LU 12 having the same rank as the tier rank of each VM 10 is available (SP2101). For example, if the VM Tier rank 1804 of the VM 10 is “Tier0.5”, the volume management program 303 selects an LU whose LU Tier rank 1204 is “Tier0.5”.
  • the volume management program 303 records the available LU Tier rank in the LU Tier rank 2005 of the volume layout table 2000. (SP2102).
  • the volume management program 303 selects the number of LUs that match the distribution policy in the distributed file system from the LUs corresponding to the LU Tier rank, and selects the LU selected as the storage destination LU number 2006 in the volume layout table 2000.
  • the LU number is recorded, and the process ends (SP2103).
  • an LU group (volume) having an LU tier rank 2005 that satisfies the VM tier rank 2004 can be configured.
  • the volume management program 303 is one layer lower (Tier rank is one higher, for example, Tier 0 if it is Tier 0) .5) is determined whether the LU is available (SP2104).
  • the volume management program 303 executes the LU Tier rank recording of SP2102, the LU selection of SP2103, and the recording in the volume layout table.
  • an LU group (volume) having an LU Tier rank that substantially satisfies the VM Tier rank 2004 can be configured as shown in a row 2014.
  • the volume management program 303 checks whether there is an LU in the lower hierarchy (SP2105).
  • the volume management program 303 executes the processing of SP2104 again to determine whether the LU lower LU can be used.
  • the error reporting method includes error display on the output device 53 of the metadata server 5 and error transmission to the host device 2.
  • the Tier rank and volume layout of the LU provided to the VM 10 can be determined.
  • storage resources suitable for the characteristics of the storage device 13 constituting the data storage 3 and the characteristics of the storage medium 12 mounted on the storage device 13 are stored in the host device 2. It can be provided appropriately according to the characteristics. Furthermore, in the present invention, storage resources suitable for the characteristics of the VM 10 operating on the host device 2 can be allocated to the VM 10 even in an environment where a server virtualization mechanism is adopted for the host device 2. Therefore, the present invention can realize efficient use and effective utilization of storage resources.
  • FIG. 22 is a diagram illustrating a configuration example of a network system according to the second embodiment of the present invention.
  • a feature of the network system 2201 according to the second embodiment of the present invention is that an integrated management server 2217 is added to the network system 1 according to the first embodiment.
  • the integrated management server 2217 is a computer device having an internal configuration similar to that of the metadata server 5 and includes a PC, a mainframe, a server, and the like.
  • the integrated management server 2217 is connected to the host device 2, the storage device 13, the storage management server 4, and the metadata server 5 via the network 7.
  • the types and amounts of various virtual resources (virtual CPU, virtual memory, virtual storage, virtual path, etc.) allocated to the VM 10 are set in the host device 2, the storage device 13, and the network device (not shown). Judging and providing to VM10. For this reason, time is required for allocation to the VM 10, and the characteristics of each device that provides virtual resources cannot be fully utilized, and high processing performance in the VM cannot be realized.
  • the integrated management server 2217 collectively determines and centrally manages the types and amounts of various virtual resources allocated to the VM 10.
  • the integrated management server 2217 includes the storage configuration information 14 obtained from the storage management server 4 by the metadata server 5 and the VM obtained from the hypervisor 9 in the network system 1 according to the first embodiment.
  • the resource information 11 is stored as VM resource information / storage configuration information 2218 in the integrated management server 2217.
  • the metadata server 5 requests and obtains the information that the storage management server 4 and the hypervisor 9 have requested and obtained from the integrated management server 2217.
  • virtual storage resources configured with storage tier volumes corresponding to VM characteristics can be allocated to VMs.
  • FIG. 23 is a sequence diagram showing processing for allocating storage resources to VMs according to the second embodiment of the present invention.
  • the integrated management server 2217 performs the processing performed by the hypervisor 9 and the storage management server 4 of the host device 2. Therefore, before starting the storage resource allocation process to the VM 10, the integrated management server 2217 acquires the VM resource information 11 from the host device 2 and the storage configuration information 14 from the storage management server 4 in advance, and stores the VM resource / Stored as storage configuration information 2218.
  • the VM resource / storage configuration information 2218 may be acquired when the storage resource allocation process to the VM 10 is started, or may be periodically acquired.
  • the integrated management server 2217 When the integrated management server 2217 receives a request for virtual storage resource allocation for a newly created VM from the hypervisor 9 of the host apparatus 2 in SP501, the integrated management server 2217 executes storage resource allocation processing for the VM 10.
  • the integrated management server 2217 When the integrated management server 2217 receives the new VM storage resource allocation response from the metadata server 5 in SP511, it sends the volume layout information to the host apparatus 2 and provides the VM 10 with virtual storage resources.
  • the storage device suitable for the characteristics of the storage device 13 constituting the data storage 3 and the characteristics of the storage medium 12 installed in the storage device is appropriately hosted. 2 can be provided. Furthermore, in the present invention, storage resources suitable for the characteristics of the VM 10 operating on the host device 2 can be appropriately allocated to the VM 10 even in an environment in which the server virtualization mechanism is adopted for the host device 2. In addition, since the integrated management server 2217 can collectively execute each process for providing storage resources to the VM 10 and management of each information, the allocation process can be speeded up.
  • FIG. 24 is a diagram illustrating a configuration example of a network system according to the third embodiment of the present invention.
  • a network system according to a third embodiment of the present invention will be described with reference to FIG.
  • the same parts as those in the first embodiment and the second embodiment are denoted by the same reference numerals, and the difference from the first embodiment and the second embodiment will be mainly described.
  • the metadata server 5 and the integrated management server 2217 operate as separate computer devices.
  • the metadata The computer apparatus in which the server 5 and the integrated management server 2217 are integrated that is, the integrated management / metadata server 2405 is configured to execute the process of allocating storage resources to the VM 10.
  • the integrated management / metadata server 2405 is a computer device having an internal configuration similar to that of the integrated management server 2217 and the metadata server 5, and includes a PC, a mainframe, a server, and the like.
  • the integrated management / metadata server 2405 is connected to the host device 2, the storage device 13, and the storage management server 4 through the second network 7.
  • the integrated management / metadata server 2405 can appropriately allocate virtual storage resources configured with storage tier volumes that conform to the VM characteristics to the VM 10 by the same processing as in the second embodiment.
  • FIG. 25 is a diagram showing a configuration example of a network system according to the fourth embodiment of the present invention.
  • the metadata server 5 and the integrated management server 2217 are configured by different physical computer devices.
  • a computer device in which the metadata server 5 and the integrated management server 2217 are integrated that is, the integrated management / metadata server 2405 executes processing for allocating storage resources to the VM 10. did.
  • the metadata server 5 and the integrated management server 2217 operate as a virtual server that operates on the hypervisor 9 of the host device 2, that is, the metadata virtual server 2505 and the integrated management virtual server 2517. It is the example of a structure to do.
  • the metadata virtual server 2505 and the integrated management virtual server 2517 execute the same processing as the metadata server 5 and the integrated management server 2217 of the network system 2201 according to the second embodiment, so that the above-described first embodiment can be used. Similar to the third embodiment, virtual storage resources configured with storage tier volumes that conform to the VM characteristics can be appropriately allocated to the VM 10.
  • this invention is not limited to the above-mentioned Example, Various modifications are included.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files for realizing each function may be stored in a memory, a recording device such as a hard disk or SSD, or a recording medium such as an IC card, SD card, or DVD.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 ネットワークシステムにおいて、VM特性に適合したストレージリソースをVMに提供するため、データ格納先であるストレージリソースのストレージ構成情報と、ストレージリソース割当て先であるVMに関するVMリソース情報とを収集する。そして、収集したストレージ構成情報に基づき特性の異なるストレージ階層別の記憶領域を構成し、VMリソース情報でVMに割当てる記憶領域のストレージ階層を特定する。

Description

ネットワークシステム及びその運用方法
 本発明は、ホスト装置にストレージリソースを割当てるネットワークシステム及びその運用方法に関する。
 近年、社会におけるクラウドサービスに対する需要の高まりにみられるように、ネットワークシステム上で扱われる情報量が増大し、データを格納するのに必要なストレージ容量も急激に増加している。
 ストレージ・サービス・プロバイダ(SSP)などは、エンドユーザから要求されるストレージ容量を満足させるためストレージ装置を追加導入し、ネットワークシステムを増強している。なお、SSPなどでは、ただストレージ装置を追加導入して容量を増やせば良いというわけではなく、エンドユーザが必要とする性能や信頼性などの条件を満足したストレージリソースを要求された容量分、迅速に提供できなければならない。
 特許文献1に、物理ホスト装置上で動作する仮想マシン(Virtual Machine、以下VMと略す)にストレージリソースを割当てる際、物理ストレージ装置のストレージ仮想化を可能にする方法とシステムが開示されている。この方法とシステムは、VMからのストレージリソース割当てリクエストに含まれる、ストレージの特性と容量(クォータ)に関する要件を満たしたストレージリソースを、VMに割当てるものである。
 また、ストレージリソースを性能面及び容量面で、バランスよく効率的に記憶領域として割当てる技術が、特許文献2に開示されている。特許文献2の技術はストレージシステムとその運用方法に関するものであり、このストレージシステムは、アレイグループを構成するHDD(Hard Disk Drive)などの記憶デバイスのI/O性能を表す性能情報と、記憶デバイスの記憶容量を表す容量情報を保持し、記憶領域に要求される性能要件情報と容量要件情報とを受け付け、要件を満足する記憶デバイスを選択するものである。
米国特許公開2010/0235832号公報 日本特許公開2010-122814号公報         (対応米国特許公開2010/0125715号公報)
 SSPなどは、ストレージ装置の追加導入コストをできるだけ抑えたいが、性能要求の高いユーザと低いユーザが混在してストレージシステムを利用される環境下では、性能要求の高いユーザ側を満足させる必要がある。そのため、SSPは性能の高い高価なストレージ装置を導入せざるを得ない。高価なストレージ装置の導入費用及び保守などの維持費用が高くなり、ユーザの利用費用も必然的に高くなるので、低い性能しか必要としないユーザから見れば、高い利用料金かつ過剰な性能を持つストレージリソースを利用することとなる。
 また、この問題を解決する従来技術のアプローチでは、性能要求の高いユーザ用と低いユーザ用にネットワークドメインを分離する方法や、割当てるストレージリソースをユーザ毎に個別に詳細設定するなどの方法がある。しかしながら、これらの方法では、管理が困難になることに加え、煩雑になるという問題がある。更に今日では、大量のVMの生成を短時間で行なうことが一般的になっており、この様な利用環境下では、ユーザ個々に異なったストレージ装置の利用設定を行なうことは、一層困難で煩雑となる。
 一方、ストレージ装置の性能向上の一手法として、分散ファイルシステムの利用がある。この分散ファイルシステムを実現する方式は複数あるが、標準的なものとしてpNFS(parallel NFS)がある。このpNFSは、多くの企業や研究者により検討され2010年に標準化組織のIETF(Internet Engineering Task Force)により、NFS(Network File System)(登録商標)バージョン4.1のプロトコル規格として追加された。このpNFSは、他の分散ファイルシステムと共に今後の普及が見込まれている。
 このpNFSを用いると、分散ファイルシステムの性能は向上できる。しかしながら、pNFSでは、データ格納先のデータストレージを構成するストレージ装置個別の仕様や、ストレージ装置に搭載されるストレージ媒体の種類などは意識しない。このため、pNFSは、それぞれのストレージ装置やストレージ媒体の特性を十分に生かしきれていないという課題が存在する。
 そこで本発明は、ネットワークシステムに分散ファイルシステムを採用した環境下において、データストレージを構成する個々のストレージ装置やそのストレージ装置に搭載される個々のストレージ媒体の特性を生かしたストレージリソースを、ホスト装置に提供しシステムの性能を向上させることを目的とする。
 更に、ホスト装置にサーバ仮想化機構を採用した環境下において、サーバ仮想化機構によって動作するVMの特性に応じて、適切なストレージリソースをVMに割当てることを目的とする。
 この課題を解決するために、本発明のネットワークシステムでは、データ格納先であるストレージリソースのストレージ構成情報と、ストレージリソース割当て先であるVMに関するVMリソース情報とを収集する。そして、収集したストレージ構成情報に基づき特性の異なるストレージ階層別の記憶領域を構成し、VMリソース情報でVMに割当てる記憶領域のストレージ階層を特定する。
 本発明によれば、分散ファイルシステムにおいて、ホスト装置上で動作する仮想マシンへ適切なストレージリソースを割り当てることができるので、システム全体の性能を向上できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
図1は、本発明の第1実施形態に係るネットワークシステムの構成例を示す図である。 図2は、ストレージ装置の内部構成例を示した図である。 図3は、メタデータサーバの内部構成例を示した図である。 図4は、従来のpNFS規格に準拠したネットワークシステムの概略図である。 図5は、VMへのストレージリソースを割当てる処理を示すシーケンス図である。 図6は、ストレージLU Tierランクの生成・更新処理を示すフローチャートである。 図7は、機種ランク判定テーブルの構成例を示す図である。 図8は、LUランク管理テーブルの構成例を示す図である。 図9は、ストレージ装置における機種ランクを判定する処理を示すフローチャートである。 図10は、LUを構成するストレージ媒体の媒体ランクの判定処理を示すフローチャートである。 図11は、LU Tierランク判定テーブルの構成例を示す図である。 図12は、LU Tierランク管理テーブルの構成例を示す図である。 図13は、LU Tierランクの判定処理を示すフローチャートである。 図14は、リソース別シェアランク判定テーブルの構成例を示す図である。 図15は、VMリソースシェアランク管理テーブルの構成例を示す図である。 図16は、VMリソース情報の収集処理を示すフローチャートである。 図17は、VM Tierランク判定テーブルの構成例を示す図である。 図18は、VM Tierランク管理テーブルの構成例を示す図である。 図19は、VM Tierランクの判定処理を示すフローチャートである。 図20は、ボリュームレイアウトテーブルの構成例を示す図である。 図21は、LU Tierランク判定処理とボリュームレイアウトの生成・更新処理を示すフローチャートである。 図22は、本発明の第2実施形態に係るネットワークシステムの構成例を示す図である。 図23は、本発明の第2実施形態に係るVMへのストレージリソースを割当てる処理を示すシーケンス図である。 図24は、本発明の第3実施形態に係るネットワークシステムの構成例を示す図である。 図25は、本発明の第4実施形態に係るネットワークシステムの構成例を示す図である。
 以下、図面を参照しながら本発明の実施の形態を説明する。なお、以下の説明では、“テーブル”等の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていてもよい。また、データ構造に依存しないことを示すために“テーブル”を“情報”と呼ぶことができる。
 また、“プログラム”を主語として処理を説明する場合がある。そのプログラムは、プロセッサ、例えば、MP(Micro Processor)やCPU(Central Processing Unit)によって実行されるもので、定められた処理をするものである。なお、適宜に記憶資源(例えばメモリ)及び通信インタフェイス装置(例えば、通信ポート)を用いながら行うため、処理の主語がプロセッサとされてもよい。プロセッサは、CPUの他に専用ハードウェアを有していても良い。コンピュータプログラムは、プログラムソースから各コンピュータにインストールされても良い。プログラムソースは、例えば、プログラム配布サーバ又は記憶メディアなどで提供されるものであっても良い。
 また、各要素、例えば、コントローラは番号などで識別可能であるが、識別可能な情報であれば、名前など他種の識別情報が用いられても良い。本発明の図及び説明において同一部分には同一符号を付与しているが、本発明が本実施例に制限されることは無く、本発明の思想に合致するあらゆる応用例が本発明の技術的範囲に含まれる。また、特に限定しない限り、各構成要素は複数でも単数でも構わない。
(1)ネットワークシステムの全体構成
 図1は、本発明の第1実施形態に係るネットワークシステム1の構成例を示す図である。ネットワークシステム1により、従来の分散ファイルシステムでは実現できなかったVM(仮想マシン)の特性に応じたストレージリソースのVMへの割り当てが可能となる。
 ネットワークシステム1は、1つ以上のホスト装置2、1つ以上のデータストレージ3、ストレージ管理サーバ4、メタデータサーバ5から構成され、ネットワーク6、7及び8で各装置が接続される。
 ホスト装置2は、CPUやメモリなどの情報処理資源を備えたコンピュータ装置であり、例えばパーソナルコンピュータ(以下PCと略す)や、メインフレーム、サーバなどから構成される。なお、ホスト装置2は、1台のコンピュータ装置で構成しても、複数のコンピュータ装置で構成してもよい。
 また、ホスト装置2は、CPUやメモリの他に、キーボード、ポインティングデバイス、マイクロフォンなどの情報入力装置(図示せず)と、モニタディスプレイやスピーカなどの情報出力装置(図示せず)を更に備える。
 ホスト装置2は、物理コンピュータ装置上に複数のVM10を稼動させることが可能な仮想化機構を備えることもできる。本実施例では、広く採用されている仮想化手法である、“ホストOS型仮想化”と“ハイパーバイザ型仮想化”の内、“ハイパーバイザ型仮想化”をホスト装置2に用いた場合を例として、以下説明を行う。ハイパーバイザ型仮想化では、物理コンピュータ装置上でハイパーバイザが仮想化レイヤとなり、この仮想化レイヤ上で複数のVM10を同時に稼動することができる。
 ハイパーバイザ9は、CPU、メモリ、ストレージデバイス、接続パス(以下、パス)といった物理リソースを仮想リソースプールとして管理する。そして、ハイパーバイザ9は、この仮想リソースプールの中から各VMに対し、各VMが必要なリソースを仮想リソースとして提供する。ハイパーバイザ9は、各VM10への仮想リソース割当て情報をVMリソース情報11として管理・保持する。
 ネットワーク6、7及び8は、SAN(Storage Area Network)、LAN(Local Area Network)、インターネット、公衆回線又は専用回線などの任意のネットワークから構成される。ネットワーク6、7及び8を介したホスト装置2、データストレージ3、ストレージ管理サーバ4、メタデータサーバ5間の通信は、例えば、ネットワーク6、7または8がSANである場合にはファイバーチャネルプロトコルに従って行われ、LANである場合にはTCP/IP(Transmission Control Protocol/Internet Protocol)に従って行われる。
 データストレージ3は、一つ以上のストレージ装置からなり、本実施例ではストレージ装置13a、13b、13c、13d、13eの5台のストレージ装置で、1つのデータストレージ3を構成した例を示している(以降、ストレージ装置13a~13eをストレージ装置13と称することがある)。
 各ストレージ装置13は、性能・容量・用途が異なるものでも同じものでもよい。なお、VM10の特性に応じて、ストレージ階層のLU(Logical Unit)を複数個使用して構成された仮想ストレージリソースをVM10に割当てるケースでは、性能・容量・用途が異なるストレージ装置を1台ないし複数台組み合わせて用い様々なストレージ階層を構成した方が、階層選択の自由度が高まり割り当てが容易となる。
 本実施例では、5台のストレージ装置で、コストより部品や接続を多重化することで故障耐性とI/O性能の向上などを目指したハイエンドストレージ装置13a、13bのグループと、コストと性能、故障耐性のバランスを図ることなどを目指したミッドレンジストレージ装置13c、13dのグループと、データの長期保管の用途で大容量化とデータ改竄防止などを目指したアーカイブストレージ装置13eのグループという3グループを形成している例を示している。上記ストレージ装置以外にローエンドストレージ装置、エントリストレージ装置など廉価であるストレージ装置を複数台使用してデータの分散格納を実現してもよい。
 データストレージ3を構成するストレージ装置13には、ストレージアクセスプロトコルとして、ファイルベースでアクセスするNAS(Network Attached Storage)、ブロックベースでアクセスするSAN(Storage Area Network)ストレージ、オブジェクトベースでアクセスするOSD(Object Storage Device)などのインタフェイスを用いることができる。本実施例では、ストレージ装置13にSANストレージを採用し、ホスト装置2とストレージ装置13との間をSANプロトコルで通信するものとして説明する。また、ストレージ装置13は、LU12a、12b、12c・・・・12o(以降、LU12と総称することがある)を装置内部に1つ以上形成することが可能で、各LU単位での管理ができる。なお、これらのネットワークでの接続は、有線ないし無線で行うことができる。
 ストレージ管理サーバ4は、CPUやメモリなどの情報処理資源を備えたコンピュータ装置であり、ホスト装置2と同じように、例えば、PC、メインフレーム、サーバなどから構成される。ストレージ管理サーバ4は、各ストレージ装置13とネットワーク8で接続され、各ストレージ装置13の保守管理端末(図示せず)と通信することで、複数のストレージ装置13の保守やストレージ構成の設定・変更といったタスクを一元管理することができる。 
 また、ストレージ管理サーバ4は、各ストレージ装置13に備えている物理リソース(CPU数、キャッシュメモリ容量、ストレージ媒体の種類・容量・性能、外部との接続パス数など)の情報やインストールされているソフトウェア(ローカルコピー、同期/非同期リモートコピー、仮想化、シンプロビジョニング、動的階層制御など)の情報、保守情報、LU構成や複数のLUで構成しホスト装置2に提供される論理ボリュームなどの論理構成情報や管理情報などを有するストレージ構成情報14を持つ。ストレージ管理サーバ4は、ネットワーク7を介しホスト装置2やメタデータサーバ5と接続し、ストレージ構成情報14をホスト装置2やメタデータサーバ5へ送る。
 メタデータサーバ5は、CPUやメモリなどの情報処理資源を備えたコンピュータ装置であり、ホスト装置2やストレージ管理サーバ4と同様に、PC、メインフレーム、サーバなどから構成される。メタデータサーバ5は、ホスト装置2、ストレージ装置13、ストレージ管理サーバ4とネットワーク7で接続される。
 メタデータサーバ5は、ホスト装置2からデータストレージ3へのデータ入出力を、データストレージ3を構成する複数のストレージ装置13に跨ってデータの書き込みと読み出しを並行的に実行する分散ファイルシステムを制御する装置である。
 図1に示す構成例は、分散ファイルシステムを実現する方式として、標準化組織IETFで制定されたNFSバージョン4.1のpNFS規格を適用した例である。なお、分散ファイルシステムを実現する方式としては、pNFS以外にHDFS(HDFS:Hadoop Distributed File System)(登録商標)といった方式があり、それを適用してもよい。
 メタデータサーバ5は、後述(図4)のpNFS規格に従って構築した標準的なネットワークシステムのメタデータサーバにpNFS規格として備える機能に加え、本発明の特徴である階層化されたLUで構成した仮想ストレージリソースを、VM特性に応じて割当てることを可能にするためのTier判定・ボリュームレイアウト機能部15とストレージ/VM/Tier情報16とを備える。
 Tier判定・ボリュームレイアウト機能部15は、前述のストレージ構成情報14を用いて各LUのTierランクを決定し、また、各VM10が必要とする仮想リソース割当て情報を用いて各VMのTierランクを決定する。そして、Tier判定・ボリュームレイアウト機能部15は、決定されたLUのTierランクとVMのTierランクとから、VM10が必要とするLUタイプ(Tierランク)とその個数で表されるボリュームレイアウトを決定する。
 また、ストレージ/VM/Tier情報16は、Tier判定・ボリュームレイアウト機能部15により収集されるストレージ構成情報、VMリソース情報、判定し決定したLUのTierランクとVM Tierランク、決定したボリュームレイアウトなどの情報を格納する。
 なお、LUのTierとは、例えばLUを形成するストレージ装置やストレージ媒体のI/O処理速度、故障耐性、コスト、容量などといった、ホスト装置がLUに対して必要とする要件において、同様の特性を持つLUを一つのカテゴリーにグループ化するものである。また、VMのTierも、そのVMに割当てられる仮想CPUや仮想メモリ容量などから、ミッションクリティカル、OLTP(On-Line Transaction Processing)、一般事務用、アーカイブといった用途別に、同一または似通った特性を持つVMを一つのカテゴリーにグループ化するものである。
 本発明では、同一または似通った特性を持つLUやVMを、それぞれの特性が該当するTierというグループに分類し、ランク付けする。つまり、各VMの特性でVM Tierランクを決定し、決定されたVM Tierランクに合致するLU Tierランクを決定する。そして、決定されたLU Tierランクに適合するLUの種別と、分散ポリシー(データやファイルを分散して格納するストレージ装置の数など)に従ったLU数を判定しボリュームレイアウト(LUレイアウト:格納先LU情報)を決定する。
 このようなシステム構成及び処理で、VM特性に応じた適切なストレージリソースをVMに割当てることができる。以下、その詳細を説明する。
<ストレージ装置の内部構成>
 図2は、ストレージ装置の内部構成例を示した図である。図2では、本実施例でストレージ装置13として用いるSANストレージの中で、高価であるが高性能かつ高信頼性であるハイエンドストレージ装置13aの構成例を示したものである。ハイエンドストレージ装置13aは、汎用的に使用されるPCやPCサーバとは異なり、ストレージ専用に特化することで性能や拡張性に優れており、用途に応じたスケーラブルな装置構成が可能である。但し、ストレージ装置13としてPCやPCサーバを採用することを妨げるものではない。
 図2に示すようにストレージ装置13aは、複数のSSD(Solid State Drive)やHDDなどのストレージ媒体201から構成するストレージ媒体群202と、ストレージ媒体群202を制御するコントローラ部203とを備える。
 ストレージ媒体群202を構成するストレージ媒体201として、例えば前述のSSDやSAS(Serial Attached SCSI)ドライブ、ニアラインSASドライブ、SATA(Serial ATA)ドライブなどのHDDの他に、光ディスクなどがある。
 各ストレージ媒体201は、コントロール部203によりRAID(Redundant Array of Inexpensive Disks)方式で運用され、ストレージ装置13a全体での高信頼性を実現している。複数のストレージ媒体でRAIDグループが構成され、各RAIDグループが提供する物理的な記憶領域それぞれに、1つ以上のLU12を生成することができる。ストレージ装置13aは、装置内部に3つのLU12a、12b、12cを生成し、ホスト装置2に提供する。
 また、ホスト装置2からのデータは、このLU12内に所定サイズのブロック単位で記憶される。なお、分散ファイルシステムでは、1つのデータを分割し複数の異なるストレージ装置13のLU12に分散して格納される。複数のLU12にデータを分散して格納するため、各LU12を識別する必要があり、そのために、各LU12には、それぞれ固有の識別子(以下、これをLU番号と呼ぶ)が付与され、VM10への仮想ストレージリソースの割当ては、このLU番号を用いて行われる。
 本実施例は、ネットワークシステム1で同じ種類のストレージ媒体から構成されるRAIDグループの物理的な記憶領域上にLU12を構成し、LU12を構成するストレージ媒体の種類毎にグループ分けしてストレージ階層(Tier)を形成する例で説明する。 ネットワークシステム1は、同じ種類のストレージ媒体からなるLU12を2つ以上、異なるストレージ装置13からそれぞれ選択し、1つのボリュームをこれら複数のLU12に跨ってレイアウト(形成)する。
 コントローラ部203は、チャネルインタフェイス204、CPU205、ローカルメモリ206、データ転送コントローラ207、キャッシュメモリ208、ディスクインタフェイス209、通信インタフェイス211を備える。ハイエンドストレージ装置13aでは、チャネルインタフェイス204、CPU205などのコントローラ部203の構成要素を複数使用して冗長化することにより、高信頼性及び高可用性を実現している。
 チャネルインタフェイス204は、ストレージ装置13aとネットワーク6ないしネットワーク7とを接続する通信コントローラである。チャネルインタフェイス204を用いて、ストレージ装置13は、ホスト装置2からの書込みデータやホスト装置2への読出しデータ、ボリュームレイアウトに関するボリュームレイアウト情報や各種コマンドなどを、ホスト装置2やメタデータサーバ5との間で送受信する。
 CPU205は、ホスト装置2からのデータ入出力要求(データ書込み要求又はデータ読出し要求)に応答して、ストレージ媒体201へのデータ入出力処理などの各種処理を制御するプロセッサである。
 ローカルメモリ206は、CPU205のワークメモリとして使用され、キャッシュメモリ208から読み出された様々な制御プログラムやシステム制御情報、CPU205での演算結果などが格納される。
 データ転送コントローラ207は、CPU205、チャネルインタフェイス204、ディスクインタフェイス209、キャッシュメモリ208間のデータ転送を制御するコントローラである。
 キャッシュメモリ208は、チャネルインタフェイス204及びディスクインタフェイス209間において転送されるデータを一時的に記憶するためのメモリである。また、キャッシュメモリ208には、ストレージ装置13の起動時にストレージ媒体201から読み出されたシステム制御情報や、各種制御プログラムなども格納される。CPU205は、これら制御プログラムを必要に応じてキャッシュメモリ208から読み出して実行することにより、ホスト装置2からのストレージ装置13への要求などを処理する。
 ディスクインタフェイス209は、ストレージ媒体201とコンローラ部203とを接続する通信コントローラであり、例えばファイバーチャネルプロトコルに従って、ストレージ媒体201への書込みデータの送信、ストレージ媒体201から読み出されたデータの受信及び各種コマンドの送受信などを行う。
 保守管理端末210は、ストレージ装置13の保守及び管理を行う端末で、例えばノート型PCが用いられる。保守管理端末210はネットワーク8と接続すると共に通信インタフェイス211を介してコントローラ部203と接続され、ストレージ装置13内の障害の有無を監視し、障害発生時に障害箇所や緊急度などの障害情報をディスプレイに表示する機能やシステム管理者に通知する機能を有する。また、システム管理者は、この保守管理端末210を用いてストレージ装置13へのシステム構成の設定や設定された構成の更新などを行うことができる。
 ストレージ装置13は、前述の構成及び動作により、一つ以上のLU12を形成してホスト装置2へ提供するとともに、メタデータサーバ5へストレージ装置13に設定・管理されているストレージ構成情報14を送信できる。
<メタデータサーバの内部構成>
 図3は、メタデータサーバの内部構成例を示した図である。メタデータサーバ5は、ファイルやデータの格納場所および格納方法を示したメタデータを保持するものである。なお、ホスト装置2やストレージ管理サーバ4もメタデータサーバ5と同等の構成をしている。
 メタデータサーバ5は、CPU51、入力装置52、出力装置53、通信インタフェイス54、メモリ55、記憶デバイス56を備え、内部バス57を介して相互に接続される。
 CPU51は、メタデータサーバ5全体を制御するプロセッサである。CPU51は、必要に応じて、メモリ55に格納されている各種プログラムや、記憶デバイス56に格納されているストレージ構成情報などを読み出して、後述するTierランク判定やボリュームレイアウト生成などの処理を実行する。
 入力装置52は、外部からメタデータサーバ5へ情報を入力する装置で、例えば、キーボード、マウス、ポインティングデバイス、マイクロフォンなどである。
 出力装置53は、メタデータサーバ5の外部へ情報を出力する装置で、例えば、ディスプレイ、スピーカ、プリンタなどである。
 通信インタフェイス54は、ネットワーク7を介してホスト装置2、データストレージ3、ストレージ管理サーバ4とメタデータサーバ5とを接続するための通信コントローラである。通信インタフェイス54は、例えばNIC(Network Interface Card)である。
 メモリ55は、OSやアプリケーションなどの各種プログラムやCPU51での演算結果などを一時的に記憶するもので、RAM(Random Access Memory)などの揮発性メモリまたはフラッシュメモリなどの不揮発性メモリで構成される。このメモリ55には、本発明を実現するための制御プログラム群であるTier判定・ボリュームレイアウト機能部15が格納されている。
 記憶デバイス56は、各種プログラムや各種情報などを格納する不揮発性デバイスで、例えば、複数のHDDを用いる。この記憶デバイス56には、本発明の特徴であるストレージ/VM/Tier情報16が格納されている。
 メタデータサーバ5は、後述(図4)のpNFS規格に沿って構築した標準的なネットワークシステムのメタデータサーバにおいてpNFS規格として有する機能に加え、本発明の特徴である階層化されたLUで構成した仮想ストレージリソースを、VM特性に応じて割当てることを可能にするためのTier判定・ボリュームレイアウト機能部15とストレージ/VM/Tier情報16とを備える。
 Tier判定・ボリュームレイアウト機能部15は、LUのTierを管理するストレージLUTier管理プログラム301、VMのTierを管理するVM Tier管理プログラム302及びボリュームレイアウトを管理するボリューム管理プログラム303を備える。
 ストレージLU Tier管理プログラム301は、ストレージ装置13のストレージ構成情報14を収集するストレージ構成情報収集処理304と、収集したストレージ構成情報14に基づき、各ストレージ装置13が保持するLU12のTierランクを判定するストレージLU Tier生成・更新処理305を備える。
 VM Tier管理プログラム302は、VM10に割当てられる仮想資源リソースに関するVMリソース情報を収集するVMリソース情報収集処理306と、収集したVMリソース情報に基づき、各VM10のTierランクを判定するVM Tierランク判定処理307を備える。
 ボリューム管理プログラム303は、判定されたLU TierランクとVM Tierランクに基づき、各VM10に割当てるLU12のTierランクを決定する割当てLU Tierランク決定処理308と、決定されたVM10に割当てるLU12のTierランクと分散ポリシーに基づき、VM10に提供される仮想ストレージリソースのボリュームレイアウトを決定するボリュームレイアウト処理309を備える。
 ちなみに、分散ポリシーとは、1つのファイルまたはデータブロックを分割して何台のストレージ装置13に分散して格納するかを決めるものである。例えば、分散ポリシーが3台のストレージ装置13に分散してファイルやデータブロックを格納するものであれば、同じTierランクを持つ3つのLU12を3台のストレージ装置それぞれから選択し、ファイルやデータブロックを各LU12に分けて同時に格納する。つまり、分散ポリシーが“3”であれば、ボリューム管理プログラム303は、同じTierランクのLU12を3つ選択する。
 また、ボリュームレイアウトとは、分散ポリシーに従って選択された複数のLU12(格納先LU)でボリュームを形成し、VM10を識別するVM番号と格納先のLU番号群とを対応付けることである。
 ストレージ/VM/Tier情報16は、Tier判定・ボリュームレイアウト機能部15により収集されたストレージ構成情報14、VMリソース情報11、各プログラムで判定したLU12のTierランクとVM10のTierランク、決定した割当てLU Tierランクやボリュームレイアウトなどの情報である。
 このように、本発明ではメタデータサーバ5のTier判定・ボリュームレイアウト機能部15とストレージ/VM/Tier情報16を備えることにより、VM特性に合致した仮想ストレージリソースを、各VM10へ適切に割当てることが可能となる。
(2)標準的な分散ファイルシステム(従来)
 図4は、従来のpNFS規格に準拠したネットワークシステムの概略図である。図4を用いて、従来の標準的な分散ファイルシステム40の構成及び動作を説明する。
 分散ファイルシステム40は、pNFSクライアント401、複数のストレージ装置403で構成されるデータストレージ402、メタデータサーバ404から構成される。pNFSクライアント401、データストレージ402、メタデータサーバ404が、図1のホスト装置2、データストレージ3、メタデータサーバ5それぞれに相当する。
 分散ファイルシステム40では、データの格納先情報であるメタデータの送受信は、pNFSプロトコルに従って、pNFSクライアント401とメタデータサーバ404との間で実行される。また、分散ファイルシステム40では、実データの送受信は、メタデータサーバ404を介しないで、pNFSクライアント401とデータストレージ402との間で、所定のストレージアクセスプロトコルに従って実行される。
 メタデータサーバ404は、データストレージ402を構成する複数ストレージ装置403に、実データをどのように分散して格納するかを表すボリュームレイアウトを管理する。このボリュームレイアウトが、メタデータサーバ404とデータストレージ402との間で所定の制御プロトコルに従って送受信される。
 また、メタデータサーバ404は、pNFSクライアント401がデータストレージ402に直接アクセスできるよう、データ格納先を示すメタデータをpNFSクライアント401に提供する。メタデータサーバ404は、メタデータとボリュームレイアウト構成の情報からなるメタデータ/レイアウト情報を保持する。
 pNFSクライアント401は、データストレージ402を構成するストレージ装置403と、パラレルデータパスで接続される。pNFSクライアント401は、このパラレルデータパスで、メタデータサーバ404から取得したメタデータに基づき、複数のストレージ装置403へ同時に並行してアクセスできる。また、メタデータサーバ404とデータストレージ402の間では、メタデータサーバ404の状態とデータストレージ402の状態との同期が図られる。
 以上のようなシステム構成とアクセス動作により、pNFS規格に従って構築した分散ファイルシステムでは、このメタデータの通信と実データの通信を分離し、pNFSクライアントが複数のストレージ装置へ同時に並行してアクセスすることにより、データストレージへの高速なデータの書き込み、データストレージからの高速なデータ読み出しを実現している。
(3)VMへの仮想ストレージリソース割当て
 図5は、VMへのストレージリソースを割当てる処理を示すシーケンス図である。図5は、ネットワークシステム1において、新規に作成されるVM10に対する仮想ストレージリソースの割当て要求の発生から、このVM10への仮想ストレージリソースの割当ての完了までの処理全体を示すシステム装置間のシーケンス図である。このシーケンス図を用いて、ネットワークシステム1を構成する各装置間の要求とそれに対する応答、各装置における処理について、具体的に説明する。なお、処理の主体を装置自体または装置上で動作するハイパーバイザなどのプログラムとしているが、装置やプログラムを動作させるCPUや各種コントローラでもよい。
 まず、ホスト装置2のハイパーバイザ9は、ユーザからの新規VM作成要求(または、既存VMの構成変更要求など)を受信すると、ホスト装置2の仮想ホストリソース(以下、仮想リソースと略す)である仮想CPUや仮想メモリを作成要求(または更新要求)の内容に従って、新規VMに割り当てる。なお、割当てる量の尺度として、仮想CPUでは、CPUの個数/動作周波数/IOPS(I/O per second)などの処理性能がある。また、仮想メモリでは、メモリ容量、アクセス性能などである。新規VM(以下、新VM)10に割当てた仮想リソース情報は、ハイパーバイザ9によりVMリソース情報11として管理される。
 次に、ハイパーバイザ9は、新VM10への仮想ストレージリソースの割当て処理を実行する。以上の処理が、図5での新VM用仮想リソース割当て受付処理である(SP501)。
 ハイパーバイザ9は、メタデータサーバ5に対し新VM10で必要とするストレージ容量の情報を含んだ新VM用ストレージリソース割当て要求を行なう(SP502)。
 メタデータサーバ5は、ハイパーバイザ9からの新VM用ストレージリソース割当て要求を受信すると、ストレージ管理サーバ4に対し、最新のストレージ構成情報取得を要求する(SP503)。
 ストレージ管理サーバ4は、最新ストレージ構成情報取得要求を受信すると、装置内部に格納してあるストレージ構成情報14を最新ストレージ構成情報としてメタデータサーバ5に対して送信する(SP504)。なお、ストレージ管理サーバ4は、自身に保管してあるストレージ構成情報14ではなく、各ストレージ装置13のストレージ構成情報を再度収集し、最新のストレージ構成情報14を生成して、メタデータサーバ5に対して送信してもよい。
 次に、メタデータサーバ5は、取得した最新ストレージ構成情報14に基づき、ストレージLU Tier生成・更新処理を実施し、各ストレージ装置13に生成されているLU12のTierランクを判定する(SP505)。
 SP503とSP504の処理が、図3に示すストレージLU Tier管理プログラム301のストレージ構成情報収集処理304に、SP505の処理がストレージLU Tier生成・更新処理305に相当する。詳細な処理の動作については、図6から図12で説明する。
 ストレージLU Tier生成・更新処理(SP505)を完了すると、メタデータサーバ5は、ハイパーバイザ9へ新VMに割当てる仮想ホストリソース情報の提供要求、すなわち、新VM用割当て仮想リソース情報取得要求を送信する(SP506)。
 ハイパーバイザ9は、メタデータサーバ5からの新VM用割当て仮想リソース情報取得要求を受信すると、保管しているVMリソース情報11をメタデータサーバ5に対して送信する(SP507)。
 メタデータサーバ5は、取得したVMリソース情報11に基づきVM Tierランク判定処理を実施し、各VM10のTierランクを判定する(SP508)。
 SP506とSP507の処理が、図3に示すVM Tier管理プログラム302のVMリソース情報収集処理306に、SP508の処理がVM Tierランク判定処理307に相当する。詳細な処理の動作については、図16から図18で説明する。
 メタデータサーバ5は、前述のVM Tierランク判定処理を終えると、各VM10に割当てるLUのTierランクを決定する(SP509)。
 メタデータサーバ5は、SP509で決定されたLU Tierランクに該当するLU12を、分散ポリシーで要求される個数分選択し、VM10に割り当てる仮想ストレージリソースのボリュームをレイアウトする(SP510)。このボリュームレイアウト情報は、VM10を識別するVM番号と、データ格納先であるLU番号、ストレージ容量などで構成する。
 最後に、メタデータサーバ5は、ハイパーバイザ9に、ボリュームレイアウト情報を含めた新VM用ストレージリソース割当て応答を送信し、レイアウトした仮想ストレージリソースのボリュームをVM10に提供する(SP511)。
 SP509の処理が、図3に示すボリューム管理プログラム303の割当てLU Tierランク決定処理308に、SP510とSP511の処理がボリュームレイアウト処理309に相当する。詳細な処理の動作については、図20及び図21で説明する。
 本実施例では、ハイパーバイザ9がメタデータサーバ5に対し、LU12のTierランクは指定せずストレージ容量のみを指定して新VM用ストレージ割当て要求を行うケースで説明した。しかしながら、必要なLU12のTierランクもストレージ容量とともに指定し新VM用ストレージリソース割当てをメタデータサーバ5に要求するようにしてもよい。この場合、メタデータサーバ5は、取得したVMリソース情報11に基づくVM Tierランク判定処理を省き、新VM用ストレージ割当て要求で指定されたLU Tierランクに該当するLU12を分散ポリシーに従った個数分選択し、新VM10に割り当てる論理ボリュームをレイアウトすればよい。
 以上の処理により、本実施例によるネットワークシステムにおいて、VM特性を満足する仮想ストレージリソース(ストレージ階層のLU)を、VM10へ適切に割当てることが可能となる。
 次に、図6から図20を用いて、VM10へのストレージリソース割当て処理の詳細な動作について説明する。
 (3-1)ストレージLU Tier生成・更新処理
 図6は、ストレージLU Tierランクの生成・更新処理を示すフローチャートである。本処理は、メタデータサーバ5がハイパーバイザ9から新VM用ストレージリソース割当て要求を受信してから、ストレージLU Tier生成・更新処理を完了するまでを示したフローチャートで、図5のSP502からSP505までの処理に相当する。
 ストレージLU Tier管理プログラム301が、このフローチャートに示す処理を実行することで、ストレージ装置13で形成されるLU毎のTierランクを判定・更新することができる。この処理は、メタデータサーバ5がハイパーバイザ9から新VM用ストレージリソース割当て要求を受信することで開始される。
 最初に、ストレージLU Tier管理プログラム301は、ストレージ管理サーバ4に対し、最新のストレージ構成情報取得要求を送信する。そして、ストレージ管理サーバ4は、最新ストレージ構成情報取得要求を受信すると、装置内部に格納してあるストレージ構成情報14を最新ストレージ構成情報としてメタデータサーバ5に対して送信し、メタデータサーバ5のストレージLU Tier管理プログラム301は、それを受信する(SP601)。
 次に、ストレージLU Tier管理プログラム301は、取得した最新ストレージ構成情報14により、ストレージ装置13自体ないしストレージ装置13のLUでストレージLU Tierランク(以下、LU Tierランク)の判定が初めてであるかを判定する(SP602)。
 LU Tierランクの判定が初めてであれば(SP602で“Yes”)、ストレージLU Tier管理プログラム301は、取得した最新ストレージ構成情報14から、データストレージ3を構成する各ストレージ装置13の機種を判定する(SP604)。
 ストレージLU Tier管理プログラム301は、各ストレージLU(以下LU)12を構成するストレージ媒体201の種類を判定する(SP605)。
 ストレージLU Tier管理プログラム301は、各LU12のTierランクを判定し、処理を終了する(SP606)。
 ストレージLU Tierの判定が今回初めてでなければ(SP602で“No”)、ストレージLU Tier管理プログラム301は、取得した最新ストレージ構成情報と前回取得したストレージ構成情報を比較し、ストレージ構成に変更があるか判定する(SP603)。
 ストレージ構成に変更があれば(SP603で“Yes”)、ストレージLU Tier管理プログラム301は、前述のSP604からSP606の処理を実行し各LU12のTierランクを更新し、処理を終了する。
 ストレージ構成に変更がなければ(SP603で“No”)、ストレージLU Tier管理プログラム301は、処理を終了する。そして、割当てLU Tierランク決定処理では、前回判定した各ストレージ装置における各LU12のTierランクを使用する。以上の処理を実行することで、ストレージ装置のLU12毎にTierランクを設定することができる。
 <機種ランク判定テーブル>
 図7は、機種ランク判定テーブルの構成例を示す図である。機種ランクテーブル700は、各ストレージ装置13でのランクである機種ランク701を機種名称702から判定するためのテーブルである。一般的に同一クラスのストレージ装置13には同一シリーズの名称が付けられていることに着目して、本実施例では、ストレージ構成情報14の中で、同一シリーズ名称を示す特徴的な箇所を抽出して、抽出情報を機種ランクテーブル700の機種名称702として登録・管理している。
 例えば、行711のように“SSS”で始まる名称(SSS123など)を持つ機種は“ハイエンド”のランクとし、行712のように“BBB”で始まる名称を持つ機種は“ミッドレンジ”のランクとしている。なお、“SSS***”等の“***”部分はどのような名称でもよいことを示す。
 そして、図9の機種ランク判定処理では、ストレージ装置名が機種名称702にヒットするかどうかで判断し、ヒットした場合は該当する機種ランク701で、ストレージ装置13のランク付けを行うものである。なお、機種ランクの分類は、同一シリーズ名称を示す情報に依らなくとも、ストレージ管理サーバ4が取得可能な各ストレージ装置13を特定できる他の情報に基づいて分類してもよい。
 <LUランク管理テーブル>
 図8は、LUランク管理テーブルの構成例を示す図である。LUランク管理テーブル800は、LU毎(LU番号801)の機種ランク802と媒体ランク803を管理するテーブルである。後述する機種ランク判定処理(図9)及び媒体ランク判定処理(図10)で判定されたLU12に対する機種ランクと媒体ランクを格納して管理する。LUランク管理テーブル800は、図14以降で説明するLU Tierランクを判定する処理で参照される。
<機種ランク判定処理>
 図9は、データストレージ3を構成するストレージ装置13の機種ランクを判定する処理を示すフローチャートである。ストレージLU Tier管理プログラム301は、機種ランク判定テーブル700を使用して各ストレージ装置13の機種ランクを決定し、結果をLUランク管理テーブル800に格納する。この処理が、図6のSP604での機種ランク判定処理である。
 本実施例では、ミッションクリティカルなシステムやOLTP(On-Line Transaction Processing)などには、I/O処理の高速化や高信頼性(MTBF(平均故障間隔:Mean Time Between Failures)を大きく、MTTR(平均修復時間:Mean Time To Repair)を小さく)を得られるストレージ装置をハイエンドランクのグループとする。
 また、社内情報を共用するためのファイルサーバやWebサーバとして使用され、コストと性能のバランスを得られるストレージ装置をミッドレンジランクのグループとする。更に、大容量データのバックアップやデータの長期保存に適するよう構成されたストレージ装置をアーカイブランクのグループとする。そして、それぞれのグループにどのような機種が属するかを示す機種ランク判定テーブル700を用いて、ストレージ装置13としてのランク付けを行うものである。その具体的な動作を説明する。
 最初に、ストレージLU Tier管理プログラム301は、取得した最新ストレージ構成情報14から各ストレージ装置13の機種名称と、装置内部に構成されているLU12の情報であるLU番号を抽出する。ストレージLU Tier管理プログラム301は、抽出した機種名称を機種ランク判定テーブル700の機種名称802と照合し、機種ランクが“ハイエンド”であるハイエンドランクに登録されたストレージ装置であるかを判定する(SP901)。
 ハイエンドランクに登録されたストレージ装置であれば(SP901で“Yes”)、ストレージLU Tier管理プログラム301は、図8のLUランク管理テーブル800にLU番号とハイエンドランクであることを記録し、処理を終了する(SP902)。例えば、ストレージ装置13aが番号00から02のLUを有していれば、LU番号801が“LU00”から“LU02”に対応する機種ランク802のエントリに“ハイエンド”と格納する。
 ストレージ装置13がハイエンドランクに登録されたストレージ装置でなければ(SP901で“No”)、ストレージLU Tier管理プログラム301は、ミッドレンジランクに登録されたストレージ装置であるか判定する(SP903)。ミッドレンジランクに登録されたストレージ装置であれば(SP903で“Yes”)、ストレージLU Tier管理プログラム301は、LUランク管理テーブル800にLU番号とミッドレンジランクであることを記録し、処理を終了する(SP902)。
 ストレージ装置13がミッドレンジランクに登録されたストレージ装置でなければ(SP903で“No”)、ストレージLU Tier管理プログラム301は、アーカイブランクに登録されたストレージ装置であるか判定する(SP904)。アーカイブランクに登録されたストレージ装置であれば(SP904で“Yes”)、ストレージLU Tier管理プログラム301は、LUランク管理テーブル800にLU番号とアーカイブランクであることを記録し、処理を終了する(SP902)。
 ストレージ装置13がアーカイブランクに登録されたストレージ装置でなければ(SP904で“No”)、ストレージLU Tier管理プログラム301は、行814のようにLUランク管理テーブル800へLU番号と機種ランクなしであること、すなわち、“機種情報なし”と記録し、処理を終了する(SP905)。
 本実施例では、機種ランクをハイエンド、ミッドレンジ、アーカイブ、機種情報なしの4つに分類しているが、ランクの分類数はこれよりも多くても少なくてもよい。また、ランク基準もこれら性能や用途によるハイエンド、ミッドレンジ、アーカイブといった分類でなくともよい。
 上記SP901からSP905までの機種ランク判定処理により、ストレージ装置13で構成するLU情報の取得と、機種ランクの判定ができ、LUランク管理テーブル800のLU番号801及び機種ランク802のエントリに該当する情報を格納できる。
<媒体ランク判定処理>
 図10は、LUを構成するストレージ媒体の媒体ランクの判定処理を示すフローチャートである。ストレージLU Tier管理プログラム301が、LU12を構成するストレージ媒体201の種類を判定しランク付けを行い、ランク付けした結果をLUランク管理テーブル800の媒体ランク803のエントリに格納する。この処理が、図6のSP605での媒体ランク判定処理である。
 本実施例では、スループットやI/Oレスポンスタイムで優れた性能を持つストレージ媒体201としてSSDを媒体ランク“A”、SSDに次ぐ性能を持つストレージ媒体としてSASドライブを媒体ランク“B”、それ以外のストレージ媒体を媒体ランク“C”と3つに分類した場合を示している。
 ストレージLU Tier管理プログラム301は、取得した最新のストレージ構成情報14に基づき、各LU12を構成するストレージ媒体201が、SSDであるかを判定する(SP1001)。
 LU12を構成するストレージ媒体201がSSDであれば(SP1001で“Yes”)、ストレージLU Tier管理プログラム301は、行811のように、LUランク管理テーブル800の媒体ランク803のエントリに“A”を記録し、処理を終了する(SP1002)。
 LUを構成するストレージ媒体がSSDでなければ(SP1001で“No”)、ストレージLU Tier管理プログラム301は、ストレージ媒体がSASドライブであるか判定する(SP1003)。
 LUを構成するストレージ媒体がSASドライブであれば(SP1003で“Yes”)、ストレージLU Tier管理プログラム301は、行812のように、LUランク管理テーブル800に媒体ランク803のエントリに“B”を記録し、処理を終了する(SP1004)。
 LUを構成するストレージ媒体がSASドライブでなければ(SP1003で“No”)、ストレージLU Tier管理プログラム301は、行813のように、LUランク管理テーブル800に媒体ランク803のエントリに“C”を記録し、処理を終了する(SP1005)。
 本実施例では、媒体ランクをA、B及びCの3段階に分類しているが、ランク段階の数はこれよりも多くても少なくてもよい。また、本実施例では、判定する媒体の種別をSSD、SAS、SSD及びSAS以外の3つに分類して判定しているが、例えば、ニアラインSASドライブ、SATAドライブ、光ドライブ、FC(Fibre Channel)ドライブやFlashモジュールなどを用いて細分化して分類してもよい。また本実施例では、各LU12が同種のストレージ媒体で構成されている場合で説明しているが、異種のストレージ媒体で構成されているものがある場合には、例えば異種ストレージ媒体構成ランク“D”などを設けて分類してもよい。
 本発明では、上記SP1001からSP1005までのストレージ媒体判定処理を実行することで、LUを構成するストレージ媒体のランク付けができ、LUランク管理テーブル800の媒体ランク803のエントリにランク付けした結果を格納し、LU番号とそれに対応する機種ランク及び媒体ランクを管理することができる。
<<LU Tierランクの判定>>
<LU Tierランク判定テーブル>
 図11は、LU Tierランク判定テーブルの構成例を示す図である。LU Tierランク判定テーブル1100は、ストレージ装置13内のLU12の機種ランク1201と媒体ランク1202から、LU Tierランクを判定するもので、機種ランク1101、媒体ランク1102及びLU Tierランク1110で構成される。
 本実施例では、Tier 0を最高ランク、Tier 3を最低ランクとし、高速なI/O処理が可能なLUをより高いランクのLU Tierに、I/O処理は低速であるが低コストで大容量記憶が必要であるLUをより低いランクのLU Tierに分類した場合を示している。例えば、ストレージLU Tier管理プログラム301は、機種ランク1101が“ハイエンド”、媒体ランク1102が“A”であるLU Tierランク1110は“Tier0”と判定し、“ミッドレンジ”で“B”であるLU Tierランク1110は“Tier1.5”と判定する。
 本実施例のLU Tierランク判定テーブル1100では、LUランク管理テーブル800で4段階に分類した機種ランク1101と、3段階に分類した媒体ランク1102により対応したLU Tierランクを判定するテーブルを示している。なお、また、LU Tierランク判定テーブル1100は、機種ランクを3段階以下または5段階以上に分類して構成してもよく、媒体ランクも同じく2段階ないし4段階以上に分類して構成してもよい。
 また、本実施例ではLU Tierランクを、“Tier0”、“Tier0.5”、“Tier1”、“Tier1.5”、“Tier2”、“Tier2.5”、“Tier3”と7つの段階に分類しているが、分類数はこれよりも多くても少なくてもよい。各機種ランクと各媒体ランクで判定したLU Tierランクは一例であって、本実施例と異なるLU Tierランクの判定の仕方、例えば、機種ランクの代わりに “高”、“中”、“低”という3段階の機種性能ランクを、媒体ランクの代わりに “高速”、“速い”、“普通”、“遅い”という4段階の媒体性能ランクを定義してLU Tierランクを判定してもよい。
 <LU Tierランク管理テーブル>
 図12は、LU Tierランク管理テーブルの構成例を示す図である。LU Tierランク管理テーブル1200は、LU番号1201と、それに対応する各種ランクを、機種ランク1202、媒体ランク1203及びLU Tierランク1204の各エントリに格納し管理するテーブルである。LU番号1201、機種ランク1202、媒体ランク1203には、LUランク管理テーブル800の情報が格納される。LU Tierランク1204には、機種ランクと媒体ランクからLU Tierランク判定テーブル1100で判定したLU Tierランクの情報が格納される。なお、このLU Tierランク管理テーブル1200は、後述のボリューム管理プログラム303の割当てLU Tierランク決定処理が参照し、VM10に割当てるストレージリソースのLU Tierランクを決定する。
 行1211に示すように、LU番号1201が“LU00”であるLUは、機種ランク1202のエントリに“ハイエンド”、媒体ランク1203のエントリに“A”、LU Tierランク1204のエントリに“Tier0”が格納される。同じく、行1212の“LU10”には“ミッドレンジ”、“B”、“Tier1.5”が格納され管理される。行1213、行1214も同様である。
<LU Tierランクの判定処理>
 図13は、LU Tierランクの判定処理を示すフローチャートである。ストレージLU Tier管理プログラム301が、LU Tierのランク付けを行い、ランク付けした結果をLU Tierランク管理テーブル1200に格納する。この処理が、図6のSP606LU Tierランク判定処理に該当する。
 まず、ストレージLU Tier管理プログラム301は、判定を行うLU12の機種ランク情報と媒体ランク情報を、LUランク管理テーブル800から取得する(SP1301)。例えば、行813に示すように、LU番号801が“LU20”であるLUのTierランクを判定するため、ストレージLU Tier管理プログラム301は、機種ランク802より“アーカイブ”という機種ランク情報を、媒体ランク803より“C”という媒体ランク情報を取得する。
 次に、ストレージLU Tier管理プログラム301は、LU Tierランク判定テーブル1100から、取得した機種ランク情報と媒体ランク情報の双方に合致するLU Tierランク情報を取得する(SP1302)。
 機種ランク情報が“アーカイブ”、媒体ランク情報“C”であるLU Tierランク1110は“Tier3”なので、ストレージLU Tier管理プログラム301は、Tierランク情報として“Tier3”を取得する。
 LU Tierランク情報を取得したら、ストレージLU Tier管理プログラム301は、LU Tierランク管理テーブル1200に、取得したLU番号、機種ランク情報、媒体ランク情報及び判定結果であるLU Tierランク情報を記録し、処理を終了する(SP1303)。
 上記のSP1301からSP1303までの処理を実行することで、LU12に対応するLU Tierランクを決定することができる。
(3-2)VM Tierランク判定
<<VMリソースシェアランク判定>>
<リソース別シェアランク判定テーブル>
 図14は、リソース別シェアランク判定テーブルの構成例を示す図である。リソース別シェアランク判定テーブルは、仮想CPU割当てシェア1401とそれに対応した仮想CPUシェアランク1402が定義された仮想CPUシェアランク判定テーブル1400と、仮想メモリ割当てシェア1411とそれに対応した仮想メモリシェアランク1412が定義された仮想メモリシェアランク判定テーブル1410の2種類のテーブルからなる。
 VM Tier管理プログラム302は、ハイパーバイザ9から取得した新VM用割当て仮想リソース情報11での仮想CPU割当てシェア及び仮想メモリ割当てシェアから、仮想CPUシェアランク判定テーブル1400及び仮想メモリシェアランク判定テーブル1410を用い、仮想CPUシェアランク及び仮想メモリシェアランクを判定するものである。
 本実施例では、割当てシェア1401/1411及びシェアランク1402/1412を3段階に分類しているが、分類の数はこれよりも多くても少なくてもよい。また、判定基準として、CPU及びメモリ以外のストレージ装置12の接続ポート数、ネットワークのパス帯域(kbps:kilo bits per second)やストレージ容量(GB:Giga Bytes)といった別の対象を採用してもよい。更に、割当てシェアではなく、各VMに割当てられた仮想リソース量を取得し、その仮想リソース量でランクを決定してもよいし、仮想リソース量の総計から各VMのシェアを算出してもよい。例えば、ホスト装置2が複数存在する場合、各ホスト装置2で動作するVMに割当てられた仮想リソース量を取得し、仮想リソース量の総計から各VMのシェアを算出することで、ホスト装置2毎の各VMのシェアランクを決定できる。
<VMリソースシェアランク管理テーブル>
 図15は、VMリソースシェアランク管理テーブルの構成例を示す図である。VMリソースシェアランク管理テーブル1500は、後述のVMリソース情報収集処理(図16)での収集・判定結果を管理するテーブルである。VMリソースシェアランク管理テーブル1500は、各VM番号1501に対し、仮想CPUシェアランク1502と仮想メモリシェアランク1503に関する情報が記録され管理されている。このVM Tier判定情報テーブル1500は、VM Tierランクを決定するため、VM Tier管理プログラム302のVM Tierランク判定処理307(図19)で参照される。
<VMリソース情報収集処理>
 図16は、VMリソース情報の収集処理を示すフローチャートである。VMリソース情報収集処理306(図3)は、ハイパーバイザ9から新VM用割当て仮想リソース情報(VMリソース情報11)を取得し、VMリソースシェアランク管理テーブル1500に記録するものである。
 最初に、VM Tier管理プログラム302は、ハイパーバイザ9から新VM用割当て仮想リソース情報(VMリソース情報11)を取得する(SP1601)。
 VM Tier管理プログラム302は、取得した新VM用割当て仮想リソース情報でのVMリソース割当て方式が、“高”、“標準”、“低”で表されたシェアランク方式であるかを判断する(SP1602)。
 ここでシェアランク方式とは、例えば割当てられている仮想メモリ容量を“2GB”といった定量情報ではなく、シェアランク“高”、“標準”、“低”といった定性情報で表された方式である。このシェアランク方式での判定により、同時に稼動する他のVM10と比較した優先順位に基づき、そのVMが使用できる仮想リソース量をリソース全体から算出して決定できるので、ストレージリソースのVM10への割当て容量の不足や偏りを防止できる。
 VMへの仮想リソースの割当て方式がシェアランク方式であれば(SP1602で“Yes”)、VM Tier管理プログラム302は、そのシェアランク方式の情報(高・標準・低)を取得する(SP1603)。そして、VM Tier管理プログラム302は、取得したVMリソース情報11でのVM番号、取得した仮想CPUシェアランク及び仮想メモリシェアランクをVMリソースシェアランク管理テーブル1500の各エントリに格納する(SP1604)。VM Tier管理プログラム302は、情報の格納後に、処理を終了する。
 仮想リソースの割当て方式がシェアランク方式でなければ(SP1602で“No”)、VM Tier管理プログラム302は、VMリソース情報11(本実施例では、シェア(%))をリソース別シェアランク判定テーブル(仮想CPUシェアランク判定テーブル1400及び仮想メモリシェアランク判定テーブル1410)と比較して、仮想リソース毎のシェアランクを求める(SP1605)。そして、VM Tier管理プログラム302は、取得したVMリソース情報11でのVM番号、求めた仮想CPUシェアランク及び仮想メモリシェアランクをVMリソースシェアランク管理テーブル1500の各エントリに格納する(SP1604)。VM Tier管理プログラム302は、情報の格納後に、処理を終了する。
 本実施例では、VMリソースシェアランクを仮想リソースのシェア(%)で判定しているが、シェアではなく実際の割当て量で判定してもよい。また、VMリソースシェアランクは、仮想リソース量に関する情報に加えてVMに搭載されるOSやアプリケーションの情報、同時に作成されるVM数などにより分類してもよいし、仮想リソース量とは切り離して分類してもよい。
 また、複数のホスト装置(ホスト装置2からホスト装置2n)上で動作する全てのVMの仮想リソース量を取得して、仮想リソース全体に占める割合を算出することで、VM割当てリソースシェアのランクを決定してもよい。
<<VM Tierランクの判定>>
<VM Tierランク判定テーブル>
 図17は、VM Tierランク判定テーブルの構成例を示す図である。VM Tierランク判定テーブル1700は、各VM10の仮想メモリシェアランク1701と仮想CPUシェアランク1702で、各VM10のTierランク1710を決定するためのテーブルである。
 本実施例では、3段階の仮想メモリシェアランク1701と3段階の仮想CPUシェアランク1702からVM Tierランクを求めるVM Tierランク判定テーブル1700を示している。しかしながら、VM Tierランク判定テーブル1700は、仮想CPUシェアランクと仮想メモリシェアランクの分類に従ったテーブルであればよく、VM Tierランク1710は、2段階ないし4段階以上の仮想CPUシェアランクと2段階ないし4段階以上の仮想メモリシェアランクとから求められてもよい。
 また、本実施例ではVM Tierランク1710を、Tier0、Tier0.5、Tier1、Tier1.5、Tier2の5つに分類しているが、分類数はこれよりも多くても少なくてもよい。本実施例では、仮想メモリシェアランク1701と仮想CPUシェアランク1702によりVM Tierランク1710を判定し求めたが、他の仮想リソースシェアランク(例えば、CPUの動作周波数、ストレージ装置13への接続ポート数、接続ネットワークのパス帯域など)でVM Tierランクを判定してもよいし、他の仮想リソースシェアランクを追加して判定してもよい。
 <VM Tierランク管理テーブル>
 図18は、VM Tierランク管理テーブルの構成例を示す図である。VM Tierランク管理テーブル1800は、SP508(図5)のVM Tierランク判定処理307(具体的な動作は、図19のフローチャート)によりランク付けされたVM Tierランクを、仮想CPU及び仮想メモリのシェアランクと一緒に管理するテーブルある。
 VM Tierランク管理テーブル1800には、各VM番号1801に対し、VM Tier管理プログラム302で取得または求められた仮想CPUシェアランク1802、仮想メモリシェアランク1803、VM Tierランク1804に関する情報が格納され管理される。VMリソースシェアランク管理テーブルの内容を、VM Tierランク管理テーブル1800に設定してもよい。
 VM Tierランク1804は、VM Tier管理プログラム302により、仮想CPUシェアランク1802と仮想メモリシェアランク1803をVM Tierランク判定テーブル1700に照し合せて求められる。
 このVM Tierランク管理テーブル1800は、後述のボリューム管理プログラム303の割当てLU Tierランク決定処理308(図21)が参照し、VMに割当てるストレージリソースのLU Tierランクを決定する。
 <VM Tierランクの判定処理>
 図19は、VM Tierランクの判定処理を示すフローチャートである。VM Tierランク判定処理307は、VMリソース情報収集処理(図16)に続き実施される処理で、VM Tierランクの決定とVM Tierランク管理テーブル1800へのランク格納を行う。
 まず、VM Tier管理プログラム302は、VMリソースシェアランク管理テーブル1500(図15)から、VM Tierランクを判定するVM10での仮想CPUシェアランクと仮想メモリシェアランクを取得する(SP1901)。
 次に、VM Tier管理プログラム302は、VM Tierランク判定テーブル1700で、仮想CPUシェアランクと仮想メモリシェアランクの双方に合致するVM Tierランクを見つけ出す(SP1902)。
 VM Tier管理プログラム302は、VM Tierランク管理テーブル1800に、VM Tierランクと、対応するVM番号/仮想CPUシェアランク/仮想メモリシェアランクとを記録し、処理を終了する(SP1903)。
 以上のSP1901からSP1903までの処理を実行することで、VM10におけるVM Tierランクを決定できる。
(3-3)割当てLU Tierランク決定・ボリュームレイアウト
<ボリュームレイアウトテーブル>
 図20は、ボリュームレイアウトテーブルの構成例を示す図である。ボリュームレイアウトテーブル2000は、VMに対する仮想ストレージリソースを提供するために、各VM10に対する仮想リソースのシェアランク、VM Tierランク、LU Tierランク、格納先LU番号(ホスト装置2に提供する論理ボリュームを構成するLU群)を管理するテーブルである。
 ボリュームレイアウトテーブル2000は、ボリューム管理プログラム303の割当てLU Tierランク決定処理308(図5のSP509)とボリュームレイアウト処理309(図5のSP510)により生成され管理されるテーブルである。
 ボリュームレイアウトテーブル2000は、VM10を識別するVM番号2001、仮想CPUシェアランク2002、仮想メモリシェアランク2003、VM Tierランク2004、LU Tierランク2005、格納先LU番号2006で構成する。
 LU Tierランク2005は、図21に示す割当てLU Tierランク決定処理・ボリュームレイアウト処理で判定された利用可能なLUのTierランクである。
 格納先LU番号2006は、同じく図21の割当てLU Tierランク決定処理・ボリュームレイアウト処理で、分散格納レイアウトポリシー(以下、分散ポリシー)に従って選択されたLU情報である。
 本実施例は、データを同一サイズに分割して、同一のTierランクを有する3つのLUへ分散して格納するという分散ポリシーを適用した場合を示す。そのため、格納先LU番号2006の各エントリには、3つの異なるLU番号の情報が格納される。なお、分散して格納させるLUの数は3つより大きくても小さくてもよい。また、別の分散ポリシー、例えば、データをLU毎に異なるサイズで格納する分散ポリシーや、異なるTierランクのLUを組み合わせて格納先を決定する分散ポリシーなどを採用してもよい。また、同じLUを複数のVM10で共有して使用するようにしてもよい(例えば、図20の行2012と行2014の“LU15”)。
 ボリュームレイアウトテーブルが示すように、各VMに対し、VMの特性(VM Tierランクで表される)に応じたストレージ階層のLUで構成した仮想ストレージリソース(LU Tierランクで表される)を割当てられる。
 <LU Tierランク判定処理とボリュームレイアウトの生成・更新処理>
 図21は、LU Tierランク判定処理とボリュームレイアウトの生成・更新処理を示すフローチャートである。この割当てLU Tierランク決定処理308(SP509)とボリュームレイアウト処理309(SP510)は、VM Tierランク判定処理307(SP508)が完了した後、メタデータサーバ5のボリューム管理プログラム303により実行される。そして、ボリュームのレイアウトが完了すると、メタデータサーバ5は、ホスト装置2のハイパーバイザ9に新VM用ストレージリソース割当て応答を返信し、レイアウトした仮想ストレージリソースをVM10に提供する。
 最初に、ボリューム管理プログラム303は、LU Tierランク管理テーブル1200とVM Tierランク管理テーブル1800を参照し、各VM10のTierランクと同じランクのLU12が利用可能か判定する(SP2101)。例えば、VM10のVM Tierランク1804が“Tier0.5”であれば、ボリューム管理プログラム303は、LU Tierランク1204が“Tier0.5”であるLUを選び出す。
 次に、VM Tierに該当するTierのLU が利用可能であれば(SP2101で“Yes”)、ボリューム管理プログラム303は、ボリュームレイアウトテーブル2000のLU Tierランク2005に、利用可能なLU Tierランクを記録する(SP2102)。
 そして、ボリューム管理プログラム303は、LU Tierランクに該当するLUの中から、分散ファイルシステムでの分散ポリシーに合致した個数のLUを選択し、ボリュームレイアウトテーブル2000の格納先LU番号2006に選択したLUのLU番号を記録し、処理を終了する(SP2103)。
 以上のSP2101からSP2103までの処理で、行2011、2012、2013に示すように、VM Tierランク2004を満足するLU Tierランク2005を有するLUグループ(ボリューム)を構成できる。
 VMのTierに該当するTierのLUが利用可能でなければ(SP2101で“No”)、ボリューム管理プログラム303は、一階層下位(Tierランクが1つ大きい、例えば、Tier0であったならば、Tier0.5)のLUが利用可能か判定する(SP2104)。
 一階層下位のLUが利用可能であれば(SP2104で“Yes”)、ボリューム管理プログラム303は、SP2102のLU Tierランクの記録とSP2103のLUの選択及びボリュームレイアウトテーブルへの記録を実行する。
 以上のSP2101からSP2104までの処理で、行2014に示すように、VM Tierランク2004をほぼ満足するLU Tierランクを有するLUグループ(ボリューム)を構成できる。
 一階層下位のLUが利用可能でなければ(SP2104で“No”)、ボリューム管理プログラム303は、もう一階層下位のLUが存在するか確認する(SP2105)。
 もう一階層下位のLUが存在するのであれば(SP2105で“Yes”)、ボリューム管理プログラム303は、再び、SP2104の処理を実行し、その一階層下位のLUが利用可能か判定する。
 もう一階層下位のLUが存在しなければ(SP2105で“No”)、ボリューム管理プログラム303は、エラー報告を行ない、処理を終了する(SP2106)。このエラー報告の方法としては、メタデータサーバ5の出力装置53でのエラー表示、ホスト装置2へのエラー送信などである。
 以上のSP2101からSP2106までの処理を実行することで、VM10に提供するLUのTierランクとボリュームのレイアウトを決定できる。
 以上説明したように、本発明では、ネットワークシステムにおいて、データストレージ3を構成するストレージ装置13の特性やそのストレージ装置13に搭載されるストレージ媒体12の特性に適合したストレージリソースを、ホスト装置2の特性に合わせて適切に提供することができる。更に、本発明では、ホスト装置2にサーバ仮想化機構を採用した環境でも、ホスト装置2上で動作するVM10の特性に適合したストレージリソースをVM10に割当てることができる。そのため、本発明は、ストレージリソースの効率的な利用と有効活用を実現できる。
(4)第2実施形態によるネットワークシステムの構成
 次に、本発明の第2実施形態に係るネットワークシステムについて図22及び図23で説明する。なお、第2実施形態の図面で第1実施形態と同じ部分には同一の符号を付し、第1実施形態との差異を中心に説明する。
 図22は、本発明の第2実施形態に係るネットワークシステムの構成例を示す図である。
本発明の第2実施形態に係るネットワークシステム2201の特徴は、第1の実施形態に係るネットワークシステム1に統合管理サーバ2217を付け加えたことである。
 統合管理サーバ2217は、メタデータサーバ5と同様な内部構成を有するコンピュータ装置であり、PC、メインフレーム、サーバなどから構成される。また、統合管理サーバ2217は、ホスト装置2、ストレージ装置13、ストレージ管理サーバ4、メタデータサーバ5とネットワーク7で接続される。
 従来のネットワークシステムでは、VM10に割当てる各種の仮想リソース(仮想CPU、仮想メモリ、仮想ストレージ、仮想パスなど)の種別や量を、ホスト装置2、ストレージ装置13、ネットワーク装置(図示せず)それぞれで判断して、VM10に提供していた。そのため、VM10への割当てに時間を要し、また、仮想リソースを提供する各装置の特性を充分に生かすことができず、VMでの高い処理性能を実現できなかった。
 本実施例では、VM10に割当てる各種の仮想リソースの種別や量を、統合管理サーバ2217が、一括して判定し一元管理する。
 この統合管理サーバ2217は、実施例1のネットワークシステム1において、メタデータサーバ5がストレージ管理サーバ4から入手していたストレージ構成情報14と、メタデータサーバ5がハイパーバイザ9から入手していたVMリソース情報11を、統合管理サーバ2217の内部にVMリソース情報・ストレージ構成情報2218として格納している。
 ネットワークシステム2201では、第1実施形態のネットワークシステム1において、メタデータサーバ5がストレージ管理サーバ4とハイパーバイザ9に要求・入手していた情報を、統合管理サーバ2217に要求・入手することで、本実施例によるネットワークシステムにおいて、VM特性に応じたストレージ階層ボリュームで構成した仮想ストレージリソースを、VMに割当てることが可能となる。
(4-1)VMへの仮想ストレージリソースの割当て
 図23は、本発明の第2実施形態に係るVMへのストレージリソースを割当てる処理を示すシーケンス図である。図5で、ホスト装置2のハイパーバイザ9及びストレージ管理サーバ4が行っていた処理を統合管理サーバ2217が行う。そのため、VM10へのストレージリソース割当て処理を開始する前に、統合管理サーバ2217はホスト装置2よりVMリソース情報11を、ストレージ管理サーバ4からストレージ構成情報14を事前に取得し装置内部にVMリソース・ストレージ構成情報2218として格納しておく。なお、VMリソース・ストレージ構成情報2218は、VM10へのストレージリソース割当て処理の開始を契機に取得しても良いし、定期的に取得する処理を実行しても良い。
 統合管理サーバ2217は、SP501で、ホスト装置2のハイパーバイザ9から、新規に作成するVMに対する仮想ストレージリソース割当ての要求を受け付けると、VM10へのストレージリソース割当て処理を実行する。
 統合管理サーバ2217は、SP511で、メタデータサーバ5からの新VM用ストレージリソース割当て応答を受信すると、ボリュームレイアウト情報をホスト装置2に送信し、VM10に仮想ストレージリソースを提供する。
 本実施例のネットワークシステム2201でも、実施例1と同様に、データストレージ3を構成するストレージ装置13の特性やそのストレージ装置に搭載されるストレージ媒体12の特性に適合したストレージリソースを適切にホスト装置2へ提供することができる。更に、本発明では、ホスト装置2にサーバ仮想化機構を採用した環境でも、ホスト装置2上で動作するVM10の特性に適合したストレージリソースをVM10へ適切に割当てることができる。加えて、ストレージリソースをVM10へ提供するための各処理及び各情報の管理を、統合管理サーバ2217が一括して実行できるので、割当て処理の高速化が図れる。
(5)第3実施形態によるネットワークシステムの構成
 図24は、本発明の第3実施形態に係るネットワークシステムの構成例を示す図である。次に、本発明の第3実施形態に係るネットワークシステムについて図24で説明する。なお、第3実施形態の図面で第1実施形態及び第2実施形態と同じ部分には同一の符号を付し、第1実施形態及び第2実施形態との差異を中心に説明する。
 第2の実施形態に係るネットワークシステム2201では、メタデータサーバ5と統合管理サーバ2217が、それぞれ別のコンピュータ装置として動作する例を示していたが、第3実施形態のネットワークシステム2401では、メタデータサーバ5と統合管理サーバ2217を一体化したコンピュータ装置、すなわち統合管理・メタデータサーバ2405がストレージリソースのVM10への割当て処理を実行する構成とした。
 統合管理・メタデータサーバ2405は、統合管理サーバ2217やメタデータサーバ5と同様な内部構成を有するコンピュータ装置であり、PC、メインフレーム、サーバなどから構成される。また、統合管理・メタデータサーバ2405は、ホスト装置2、ストレージ装置13、ストレージ管理サーバ4と第2のネットワーク7で接続される。
 統合管理・メタデータサーバ2405は、第2の実施形態と同様の処理によりVM特性に適合したストレージ階層ボリュームで構成した仮想ストレージリソースを、VM10へ適切に割当てることが可能となる。
 (6)第4実施形態によるネットワークシステムの構成
 次に、本発明の第4実施形態に係るネットワークシステムについて、図25で説明する。なお、第4実施形態の図面で、第1実施形態、第2実施形態または第3実施形態と同じ部分には同一の符号を付すこととし、第1実施形態、第2実施形態または第3実施形態との差異を中心に説明する。
 図25は、本発明の第4実施形態に係るネットワークシステムの構成例を示す図である。第2の実施形態に係るネットワークシステム2201では、メタデータサーバ5と統合管理サーバ2217を、異なった物理的なコンピュータ装置で構成していた。また、第3実施形態のネットワークシステム2401では、メタデータサーバ5と統合管理サーバ2217を一体化したコンピュータ装置、すなわち統合管理・メタデータサーバ2405がストレージリソースのVM10への割当て処理を実行する構成とした。
 第4実施形態のネットワークシステム2501は、メタデータサーバ5と統合管理サーバ2217が、ホスト装置2のハイパーバイザ9上で動作する仮想サーバ、すなわち、メタデータ仮想サーバ2505と統合管理仮想サーバ2517として動作する構成例である。
 このメタデータ仮想サーバ2505と統合管理仮想サーバ2517が、第2の実施形態に係るネットワークシステム2201のメタデータサーバ5と統合管理サーバ2217と同じ処理を実行することで、前述の第1実施形態から第3実施形態と同様に、VM特性に適合したストレージ階層ボリュームで構成した仮想ストレージリソースを、VM10へ適切に割当てることが可能となる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置いてもよい。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
 1 ネットワークシステム
 2 ホスト装置
 3 データストレージ
 4 ストレージ管理サーバ
 5 メタデータサーバ
 6、7、8 ネットワーク
 9 ハイパーバイザ
 10 VM
 11 VMリソース情報
 12 LU
 13 ストレージ装置
 14 ストレージ構成情報
 15 Tier判定・ボリュームレイアウト機能部
 16 ストレージ/VM/Tier情報
 201 ストレージ媒体
 202 ストレージ媒体群
 301 ストレージLU Tier管理プログラム
 302 VM Tier管理プログラム
 303 ボリューム管理プログラム
 304 ストレージ構成情報収集処理
 305 ストレージLU Tier生成・更新処理
 306 VMリソース情報収集処理
 307 VM Tierランク判定処理
 308 割当てLU Tierランク決定処理
 309 ボリュームレイアウト処理
 700 機種ランク判定テーブル
 800 LUランク管理テーブル
 1100 LU Tierランク判定テーブル
 1200 LU Tierランク管理テーブル
 1400 仮想CPUシェアランク判定テーブル
 1410 仮想メモリシェアランク判定テーブル
 1500 VMリソースシェアランク管理テーブル
 1700 VM Tierランク判定テーブル
 1800 VM Tierランク管理テーブル
 2000 ボリュームレイアウトテーブル
 2201、2401、2501 ネットワークシステム
 2217 統合管理サーバ
 2218 リソース・装置構成情報
 2405 統合管理・メタデータサーバ
 2502 ホスト装置
 2505 メタデータ仮想サーバ
 2517 統合管理仮想サーバ

Claims (14)

  1.  ネットワークシステムであって、
     前記ネットワークシステムは、
     第1制御部と、
     ホスト装置に異なるストレージ特性を有する複数のサブ記憶領域(LU)を提供するデータ記憶システムとを備え、
     前記ホスト装置は第2制御部を備え、前記第2制御部で制御される1つ以上の仮想マシンが動作し、前記仮想マシン毎に仮想マシンリソースが割り当てられ、
     前記第1制御部が、
     前記仮想マシンリソースの情報を取得し、
     前記仮想マシンリソース情報に基づき前記仮想マシンへ割当てるサブ記憶領域のストレージ特性(LU Tierランク)を決定し、
     複数の同一ストレージ特性を有するサブ記憶領域からデータ格納領域(ボリューム)を構成し、 
     前記データ格納領域に前記仮想マシンのデータを格納する
     ことを特徴とするネットワークシステム。
     
  2.  請求項1記載のネットワークシステムであって、
     前記データ格納領域に前記仮想マシンのデータを分散して格納する
     ことを特徴とするネットワークシステム。
     
  3.  請求項2記載のネットワークシステムであって、
     前記データ記憶システムは複数のストレージ装置で構成され、ストレージ装置は複数のストレージ媒体を搭載し、
     ストレージ構成情報は、前記ストレージ装置の種類を表す機種情報と、前記搭載されたストレージ媒体の種類を表す媒体情報である
     ことを特徴とするネットワークシステム。
     
  4.  請求項3記載のネットワークシステムであって、
     前記ホスト装置は、処理を実行する複数のCPU部と、所定の記憶容量を有するメモリ部と、データ記憶システムと接続する複数のパスを有する通信部と、情報を格納するストレージ部とを更に備え、
     前記仮想マシンリソース情報は前記ストレージ部に格納され、
     前記仮想マシンリソース情報は、前記仮想マシンに割当てられる
      (a1)仮想CPUの個数
      (a2)仮想CPUの動作周波数
      (a3)仮想メモリの記憶容量
      (a4)仮想接続ポート数
      (a5)仮想通信パス帯域
    のいずれか1つ以上の情報で構成される
     または、
     前記仮想マシンリソース情報は、前記仮想マシンに割当てられる
      (b1)仮想CPUの全個数に対する割当て個数の割合
      (b2)仮想CPUの全動作周波数に対する割当て動作周波数の割合
      (b3)仮想メモリの全記憶容量に対する割当て記憶容量の割合
      (b4)仮想接続ポートの全数に対する割当てポート数の割合
      (b5)仮想通信パスの帯域に対する割当て帯域の割合
    のいずれか1つ以上の情報で構成される
     ことを特徴とするネットワークシステム。
     
  5.  請求項4記載のネットワークシステムであって、
     前記第1制御部は、
     前記機種情報より前記ストレージ装置毎の機種ランクを決定し、前記媒体情報より前記ストレージ媒体毎の媒体ランクを決定し、
     前記機種ランクと前記媒体ランクにより、複数の前記ストレージ媒体で構成されたサブ記憶領域のストレージ特性(LU Tierランク)を求める
    ことを特徴とするネットワークシステム。
     
  6.  請求項5記載のネットワークシステムであって、
     前記第1制御部は、
     前記仮想マシンリソース情報より前記仮想マシン特性(VM Tierランク)を求める
     ことを特徴とするネットワークシステム。
     
  7.  請求項6記載のネットワークシステムであって、
     前記第1制御部は、
     前記仮想マシン特性から予め決定しておいた対応関係に基づき、前記仮想マシンに割当てるサブ記憶領域のストレージ特性(LU Tierランク)を決定する
     ことを特徴とするネットワークシステム。
     
  8.  請求項7記載のネットワークシステムであって、
     前記ネットワークシステムは、メタデータサーバを更に備え、前記第1制御部は前記メタデータサーバに搭載される
     ことを特徴とするネットワークシステム。
     
  9.  請求項8記載のネットワークシステムであって、
     前記ネットワークシステムは、ストレージ管理サーバを更に備え、前記データ記憶システムのストレージ構成情報は、前記ストレージ管理サーバ経由で前記メタデータサーバの第1制御部が取得する
     ことを特徴とするネットワークシステム。
     
  10.  請求項8記載のネットワークシステムであって、
     前記ネットワークシステムは、ストレージ管理サーバ及び統合管理サーバとを更に備え、
     前記ストレージ管理サーバで取得された前記データ記憶システムのストレージ構成情報及び前記仮想マシンリソース情報は、前記統合管理サーバを介して前記メタデータサーバの第1制御部が取得する
     ことを特徴とするネットワークシステム。
     
  11.  請求項7記載のネットワークシステムであって、
     前記ネットワークシステムは、ストレージ管理サーバ及び統合管理・メタデータサーバとを更に備え、
     前記統合管理・メタデータサーバに前記第1制御部が搭載され、
     前記ストレージ管理サーバで取得された前記データ記憶システムのストレージ構成情報及び前記仮想マシンリソース情報は、前記統合管理・メタデータサーバの前記第1制御部が取得する
     ことを特徴とするネットワークシステム。
     
  12.  請求項7記載のネットワークシステムであって、
     前記ホスト装置は前記第2制御部で制御される1つ以上の仮想サーバが動作し、
     前記仮想サーバが、
     前記仮想マシンリソース情報及び前記ストレージ構成情報を取得し、
     前記仮想マシンリソース情報に基づき、前記仮想マシンへの割当てサブ記憶領域のストレージ特性を決定し、
     複数の同一ストレージ特性を有するサブ記憶領域からデータ格納領域(ボリューム)を形成し、 
     前記データ格納領域に格納するデータは、前記サブ記憶領域に分散されて格納される
     ことを特徴とするネットワークシステム。
     
  13.  記憶領域を提供するネットワークシステムの運用方法であって、
     前記記憶領域を提供する装置のストレージ構成情報を取得し、
     前記ストレージ構成情報に基づき、異なるストレージ特性を有する複数のサブ記憶領域を同一のストレージ特性を有するサブ記憶領域毎に分類し、
     前記記憶領域を提供される装置のシステム特性情報を取得し、
     前記システム特性情報に基づき、前記記憶領域を提供される装置へ割当てるサブ記憶領域のストレージ特性を決定し、
     前記複数の前記割当てサブ記憶領域からデータ格納領域(ボリューム)を形成し、 
     前記データ格納領域(ボリューム)にデータを格納する
     ことを特徴とする運用方法。
     
  14.  請求項13記載の運用方法であって、
     前記データ格納領域の前記サブ記憶領域に前記データを分散して格納する
     ことを特徴とする運用方法。
     
PCT/JP2012/081656 2012-12-06 2012-12-06 ネットワークシステム及びその運用方法 WO2014087518A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2012/081656 WO2014087518A1 (ja) 2012-12-06 2012-12-06 ネットワークシステム及びその運用方法
US13/981,228 US8793373B2 (en) 2012-12-06 2012-12-06 Network system and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/081656 WO2014087518A1 (ja) 2012-12-06 2012-12-06 ネットワークシステム及びその運用方法

Publications (1)

Publication Number Publication Date
WO2014087518A1 true WO2014087518A1 (ja) 2014-06-12

Family

ID=50882261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/081656 WO2014087518A1 (ja) 2012-12-06 2012-12-06 ネットワークシステム及びその運用方法

Country Status (2)

Country Link
US (1) US8793373B2 (ja)
WO (1) WO2014087518A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143166A (ja) * 2015-01-30 2016-08-08 富士通株式会社 制御装置,ストレージシステム及び制御プログラム
WO2017046864A1 (ja) * 2015-09-15 2017-03-23 株式会社日立製作所 ストレージシステム、計算機システム、およびストレージシステムの制御方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9515899B2 (en) * 2012-12-19 2016-12-06 Veritas Technologies Llc Providing optimized quality of service to prioritized virtual machines and applications based on quality of shared resources
US9092451B1 (en) * 2013-03-14 2015-07-28 Emc Corporation Genomic application data storage
EP2997470A4 (en) * 2013-05-13 2017-01-18 Telefonaktiebolaget LM Ericsson (publ) Node in a telecommunications network, a virtual network element and methods for retrieving resource identification information
US10225162B1 (en) * 2013-09-26 2019-03-05 EMC IP Holding Company LLC Methods and apparatus for array agnostic automated storage tiering
JP6131170B2 (ja) * 2013-10-29 2017-05-17 株式会社日立製作所 計算機システム、及びデータ配置制御方法
US20150201016A1 (en) * 2014-01-14 2015-07-16 Amit Golander Methods and system for incorporating a direct attached storage to a network attached storage
US9576039B2 (en) 2014-02-19 2017-02-21 Snowflake Computing Inc. Resource provisioning systems and methods
US10169169B1 (en) 2014-05-08 2019-01-01 Cisco Technology, Inc. Highly available transaction logs for storing multi-tenant data sets on shared hybrid storage pools
US9378067B1 (en) * 2014-05-08 2016-06-28 Springpath, Inc. Automated load balancing across the distributed system of hybrid storage and compute nodes
US9628350B2 (en) * 2014-11-05 2017-04-18 Amazon Technologies, Inc. Dynamic scaling of storage volumes for storage client file systems
US20170013046A1 (en) * 2014-11-18 2017-01-12 Primarydata, Inc. Data-centric data storage
US11100415B2 (en) * 2016-10-04 2021-08-24 University Of Louisiana At Lafayette Architecture and method for providing insights in networks domain
US10379912B2 (en) 2017-04-11 2019-08-13 International Business Machines Corporation Data storage allocation utilizing virtual machine resource allocation
FR3081609A1 (fr) 2018-06-29 2019-11-29 Orange Systeme de commande d'objets connectes, procede de commande et programme d'ordinateur correspondants
US10956365B2 (en) 2018-07-09 2021-03-23 Cisco Technology, Inc. System and method for garbage collecting inline erasure coded data for a distributed log structured storage system
US10642689B2 (en) 2018-07-09 2020-05-05 Cisco Technology, Inc. System and method for inline erasure coding for a distributed log structured storage system
US10691611B2 (en) * 2018-07-13 2020-06-23 Micron Technology, Inc. Isolated performance domains in a memory system
US11100007B2 (en) 2019-05-28 2021-08-24 Micron Technology, Inc. Memory management unit (MMU) for accessing borrowed memory
US11334387B2 (en) * 2019-05-28 2022-05-17 Micron Technology, Inc. Throttle memory as a service based on connectivity bandwidth
US11169930B2 (en) 2019-05-28 2021-11-09 Micron Technology, Inc. Fine grain data migration to or from borrowed memory
US11061819B2 (en) 2019-05-28 2021-07-13 Micron Technology, Inc. Distributed computing based on memory as a service
US11256624B2 (en) 2019-05-28 2022-02-22 Micron Technology, Inc. Intelligent content migration with borrowed memory
US11438414B2 (en) 2019-05-28 2022-09-06 Micron Technology, Inc. Inter operating system memory services over communication network connections
US20220318040A1 (en) * 2021-03-31 2022-10-06 Ati Technologies Ulc System and method for providing page migration
CN113703685B (zh) * 2021-08-31 2023-09-08 网易(杭州)网络有限公司 一种数据存储方法、装置、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345631A (ja) * 2002-05-28 2003-12-05 Hitachi Ltd 計算機システム及び記憶領域の割当方法
JP2006003973A (ja) * 2004-06-15 2006-01-05 Nec Corp ストレージ装置とその論理記憶装置割り当て制御方法
JP2006031668A (ja) * 2004-07-15 2006-02-02 Hitachi Ltd データ価値に基づく階層型ストレージ管理の為の方法と装置
JP2010140273A (ja) * 2008-12-11 2010-06-24 Hitachi Ltd 情報処理システム、情報処理方法、及び管理装置
JP2012128756A (ja) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp ファイル複製装置、ファイル複製装置のファイル複製方法およびファイル複製プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122814A (ja) 2008-11-18 2010-06-03 Hitachi Ltd ストレージシステム及びストレージシステムの運用方法
US8291159B2 (en) 2009-03-12 2012-10-16 Vmware, Inc. Monitoring and updating mapping of physical storage allocation of virtual machine without changing identifier of the storage volume assigned to virtual machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345631A (ja) * 2002-05-28 2003-12-05 Hitachi Ltd 計算機システム及び記憶領域の割当方法
JP2006003973A (ja) * 2004-06-15 2006-01-05 Nec Corp ストレージ装置とその論理記憶装置割り当て制御方法
JP2006031668A (ja) * 2004-07-15 2006-02-02 Hitachi Ltd データ価値に基づく階層型ストレージ管理の為の方法と装置
JP2010140273A (ja) * 2008-12-11 2010-06-24 Hitachi Ltd 情報処理システム、情報処理方法、及び管理装置
JP2012128756A (ja) * 2010-12-17 2012-07-05 Mitsubishi Electric Corp ファイル複製装置、ファイル複製装置のファイル複製方法およびファイル複製プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143166A (ja) * 2015-01-30 2016-08-08 富士通株式会社 制御装置,ストレージシステム及び制御プログラム
WO2017046864A1 (ja) * 2015-09-15 2017-03-23 株式会社日立製作所 ストレージシステム、計算機システム、およびストレージシステムの制御方法
JPWO2017046864A1 (ja) * 2015-09-15 2017-09-14 株式会社日立製作所 ストレージシステム、計算機システム、およびストレージシステムの制御方法

Also Published As

Publication number Publication date
US8793373B2 (en) 2014-07-29
US20140164621A1 (en) 2014-06-12

Similar Documents

Publication Publication Date Title
WO2014087518A1 (ja) ネットワークシステム及びその運用方法
US9229645B2 (en) Storage management method and storage system in virtual volume having data arranged astride storage devices
US9285992B2 (en) System and method for optimally creating storage objects in a storage system
JP5830599B2 (ja) 計算機システム及びその管理システム
US8578121B2 (en) Computer system and control method of the same
US9110591B2 (en) Memory resource provisioning using SAS zoning
WO2014018742A1 (en) Contention-free multi-path storage access in distributed compute systems
US11086535B2 (en) Thin provisioning using cloud based ranks
US20140195698A1 (en) Non-disruptive configuration of a virtualization cotroller in a data storage system
US10855556B2 (en) Methods for facilitating adaptive quality of service in storage networks and devices thereof
WO2019053565A1 (en) STORAGE SYSTEM USING CLOUD STORAGE AS A ROW
US10019182B2 (en) Management system and management method of computer system
JP2015531090A (ja) ストレージデバイスの高速アクセス及びデータ保護を実現する計算機、計算機システム、及びi/o要求処理方法
US9940073B1 (en) Method and apparatus for automated selection of a storage group for storage tiering
US20180052715A1 (en) Computer system including server storage system
US10242053B2 (en) Computer and data read method
Cha et al. Analysis of i/o performance for optimizing software defined storage in cloud integration
TW202018521A (zh) 具多平台相容性模組之資料儲存子系統之儲存系統架構及其方法
WO2016174739A1 (ja) 複合計算機システム、管理計算機、およびデータ連携管理方法
US11768744B2 (en) Alerting and managing data storage system port overload due to host path failures
US9870152B2 (en) Management system and management method for managing data units constituting schemas of a database
US11201788B2 (en) Distributed computing system and resource allocation method
JP2011070464A (ja) 計算機システム及び計算機システムの性能管理方法
US10768834B2 (en) Methods for managing group objects with different service level objectives for an application and devices thereof
US20220308794A1 (en) Distributed storage system and management method

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 13981228

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12889433

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12889433

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP