WO2015029133A1 - ストレージシステム及びストレージシステム管理方法 - Google Patents

ストレージシステム及びストレージシステム管理方法 Download PDF

Info

Publication number
WO2015029133A1
WO2015029133A1 PCT/JP2013/072852 JP2013072852W WO2015029133A1 WO 2015029133 A1 WO2015029133 A1 WO 2015029133A1 JP 2013072852 W JP2013072852 W JP 2013072852W WO 2015029133 A1 WO2015029133 A1 WO 2015029133A1
Authority
WO
WIPO (PCT)
Prior art keywords
volume
storage
virtual
virtual machine
virtual volume
Prior art date
Application number
PCT/JP2013/072852
Other languages
English (en)
French (fr)
Inventor
智則 榎阪
正靖 ▲浅▼野
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US14/359,920 priority Critical patent/US9075530B2/en
Priority to PCT/JP2013/072852 priority patent/WO2015029133A1/ja
Publication of WO2015029133A1 publication Critical patent/WO2015029133A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects

Definitions

  • the present invention relates to a storage system and a storage system management method, and is suitably applied to a storage system and a storage system management method for constructing a virtual environment system.
  • HDD Hard Disk Drive
  • the disk array device increases as the HDD capacity and the number of installed devices increase. Its own support capacity has also increased significantly. However, the performance of the controller that controls the HDD may not be able to cope with the increase in HDD capacity.
  • Patent Document 1 a plurality of disk array devices are virtualized as one storage system across physical boundaries to provide a high-performance disk array device.
  • Patent Document 2 discloses a technique for providing a host with a virtual volume (VVOL) corresponding to a virtual machine (VM).
  • VVOL virtual volume
  • VM virtual machine
  • a plurality of disk control devices having a plurality of physical disks and a management server that manages the plurality of physical disks allocated to a virtual machine are connected via a network,
  • the plurality of disk control devices manage predetermined storage areas provided by the plurality of physical disks as one or a plurality of logical volumes, and include capacity information of the virtual machine in response to a request from the management server,
  • the one or more logical volumes conforming to a storage policy set in advance for constructing the virtual machine are mapped to a virtual volume provided to the virtual machine, and the management server selects one storage policy. If the virtual volume that matches the storage policy is Characterized by constructing the virtual machine by associating the machine, the storage system apparatus is provided.
  • the plurality of disk control devices map one or a plurality of logical volumes conforming to the preset storage policy to the virtual volume, and the management server selects any storage by input from the system administrator or the like.
  • a virtual machine is constructed by associating a virtual volume that satisfies the conditions set in the storage policy with the virtual machine.
  • storage policies such as device type, disk capacity, and performance are applied, and the mapping between the virtual volume corresponding to the virtual machine and the volume provided by the storage system is automated. This makes it easier to build the environment and manage the entire system.
  • storage system management can be facilitated by associating a physical volume of a storage system and a virtual volume corresponding to a virtual machine in advance based on a predetermined storage policy.
  • FIG. 2 is a block diagram showing a configuration of a memory of the disk control device according to the embodiment.
  • FIG. It is a conceptual diagram explaining cooperation of the virtual volume and physical volume concerning the embodiment. It is a chart which shows the contents of the virtual machine management table concerning the embodiment. It is a chart which shows the contents of the data store management table concerning the embodiment. It is a chart which shows the contents of the virtual volume management table concerning the embodiment. It is a chart which shows the contents of the GDEV management table concerning the embodiment. It is a chart which shows the contents of the LDEV management table concerning the embodiment. It is a chart which shows the contents of the storage policy management table concerning the embodiment.
  • FIG. 4 is a flowchart showing a flow of remote copy processing according to the embodiment. It is a conceptual diagram explaining the mapping of the logical volume with respect to the virtual volume which concerns on the 3rd Embodiment of this invention. It is a conceptual diagram explaining the mapping of the logical volume with respect to the virtual volume concerning the embodiment. It is a conceptual diagram explaining the mapping of the logical volume with respect to the virtual volume concerning the embodiment. It is a conceptual diagram explaining the mapping of the logical volume with respect to the virtual volume concerning the embodiment. It is a flowchart which shows the flow of the VVOL reconstruction process for load distribution concerning the embodiment.
  • xxx table various types of information may be described using the expression “xxx table”, but the various types of information may be expressed using a data structure other than a table. In order to show that it does not depend on the data structure, the “xxx table” can be called “xxx information”.
  • an ID identifier
  • a number is used to specify an element, but other types of information (for example, a name) may be used as identification information.
  • processing may be described using “program” as the subject, but the program is executed by a processor (for example, a CPU (Central Processing Unit)), so that the determined processing is appropriately performed as a storage resource. Since the processing is performed using (for example, a memory) and / or a communication interface device (for example, a communication port), the subject of processing may be a processor.
  • the processing described with the program as the subject may be processing performed by a disk control device, a controller included in the disk control device, or a management server.
  • the processor may include a hardware circuit that performs part or all of the processing performed by the processor.
  • the computer program may be installed on each computer from a program source.
  • the program source may be, for example, a program distribution server or a storage medium.
  • the logical volume provided by the storage system and the virtual volume corresponding to the virtual machine are linked to create a volume across multiple controllers, and multiple controllers are used when copying the volume.
  • a storage policy such as device type, disk capacity, and performance when building a virtual machine
  • the mapping between the virtual volume provided by the virtual machine and the volume provided by the storage system can be automated.
  • the environment construction of the storage system is facilitated, and the management of the entire system is facilitated. Thereby, it is also possible to facilitate the construction of a disaster recovery (DR) environment.
  • DR disaster recovery
  • When performing load balancing of the storage system it is possible to execute migration or the like without stopping the virtual machine.
  • the disaster recovery environment construction will be described in detail in the second embodiment, and the load distribution of the storage system will be described in detail in the third embodiment.
  • the computer system includes a management server 100, a virtualization server 200 controlled by the management server 100, and a storage subsystem 300. Is done.
  • the management server 100 is a computer device for maintaining or managing the virtualization server 200 and the storage subsystem 300.
  • the virtualization server 200 is controlled by the management server 100 to virtually divide the physical computer resources of the virtualization server 200 and the storage subsystem 300, and a plurality of virtual machines (each assigned with the divided computer resources).
  • VM Virtual Machine
  • a case where a plurality of virtual machines are managed in one virtualization server 200 will be described.
  • the present invention is not limited to this example, and one or more virtualization servers 200 have one or more virtualizations.
  • One or more virtual machines in the server 200 may be managed.
  • the storage subsystem 300 includes a plurality of disks 330 and is connected to the management server 100, the virtualization server 200, and the virtualization server 200 via the network 40.
  • the network 40 is, for example, an FC (Fibre Channel) network, a LAN (Local Area Network), or the Internet.
  • the management server 100 includes a CPU 110, a memory 120, an interface (indicated as I / F in the figure). ) 130 and a user interface (denoted as UI in the drawing) 140 and the like.
  • the CPU 110 functions as an arithmetic processing unit and a control unit, and controls the overall operation of the management server 100 according to various programs stored in the memory 120.
  • the memory 120 stores programs, calculation parameters, and the like used by the CPU 110, and includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the memory 120 includes a management program (disaster recovery management software (denoted as DR management software in the figure) 121) and virtual machine management software (denoted as VM management software in the figure) for managing the construction and change of virtual machines on the virtualization server 200. ) 122, virtual volume management software (denoted as VVOL management software in the figure) 123, a management program (storage management software 124) for managing the configuration of the storage subsystem 300, etc.
  • DR management software Read Only Memory
  • VM management software virtual machine management software
  • the interface 130 is an interface connected to an external device, for example, a connection port for connecting to an external device capable of transmitting data for connecting to a local area network (LAN).
  • LAN local area network
  • the user interface 140 is an input / output device.
  • input / output devices include a display, a keyboard, and a pointer device, but other devices may be used.
  • a serial interface or an Ethernet interface is used as the input / output device, a display computer having a display or a keyboard or a pointer device is connected to the interface, and the display information is transmitted to the display computer.
  • the display computer may perform the display, or the input may be replaced by the input / output device by receiving the input.
  • the virtualization server 200 includes a CPU 210, a memory 220, an interface (denoted I / F in the figure) 230, and a user interface (UI in the figure). And 240).
  • the virtual server 200 is actually managed by the management server 100, and a virtual server environment is constructed by executing the hypervisor 221.
  • the CPU 210 functions as an arithmetic processing unit and a control unit, and controls the operation of the entire virtualization server 200 according to various programs stored in the memory 220.
  • the memory 220 stores programs, calculation parameters, and the like used by the CPU 210, and includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. Typically, there are an OS (Operating System) and an application program as programs.
  • the application program accesses an LU (Logical Unit) provided from the storage subsystem 300 described later.
  • An LU is a logical storage device and may be referred to as a logical volume.
  • the memory 220 stores various tables (virtual machine management table (noted as VM management table in the figure) 222, data store management table 223, and storage policy management table 224) for managing the configuration of the virtual machine.
  • VM management table virtual machine management table
  • the storage subsystem 300 is composed of a plurality of disk control devices 310 connected via a network.
  • the disk control device 310 includes, for example, a device (for example, an internal controller) 320 that controls storage of data in a plurality of physical storage media using RAID (Redundant Array of Inexpensive Disks) control (for example, Disk array device).
  • the physical storage medium is, for example, a disk-type storage medium (for example, HDD (Hard Disk Drive)).
  • DKC Disk Control Apparatus
  • examples of the disk type storage medium include drives such as FC (Fibre Channel), SAS (Serial Attached SCSI), ATA (Advanced Technology Attachment), and SATA (Serial ATA).
  • the physical storage medium may be another type of physical storage medium, such as an SSD (Solid State Drive), a semiconductor memory storage device / board, or the like, instead of the disk-type storage medium.
  • each disk controller 310 includes a CPU 321, a memory 322, an interface (indicated as I / F in the figure) 323, a cache 324, and the like.
  • the CPU 321 functions as an arithmetic processing unit and a control unit, and controls the overall operation of the disk control unit 310 according to various programs stored in the memory 322.
  • the memory 322 stores programs used by the CPU 321, calculation parameters, and the like, and includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. As shown in FIG. 2, the memory 322 stores various management programs and management tables. Specifically, a virtual volume (denoted as VVOL in the figure) management program 360 and a virtual volume management table 361 that manages various volumes and disks, and a GDEV management program 370 that manages a GDEV that is a logical volume managed by the disk controller 310. In addition, a GDEV management table 371, an LDEV management program 380, an LDEV management table 381, and the like are stored. In addition, a remote copy management program 350 and a remote copy management table 351 for managing remote copy described in the second embodiment are stored.
  • the cache 324 temporarily stores data written to the disk 330 and data read from the disk 330.
  • the at least one cache 324 may have a storage area (SM area) used as a shared memory (SM) of a plurality of controller modules in addition to a storage area (CM area) used as a cache memory.
  • SM area storage area
  • CM area storage area
  • a virtual machine (VM1, VM2, VM3) 250 constructed on the virtualization server 200 includes one or a plurality of virtual disks (VMDK1, VMDK2, VMDK3, VMDK4) 251.
  • the data store (data store 1, data store 2, data store 3) 260 is a virtual volume for constructing the virtual disk 251.
  • VMDK virtual disk
  • the disk controller 310 of the storage subsystem 300 passes through the entire storage subsystem 300 in correspondence with a logical volume that is a logical storage device (hereinafter, this logical volume will be referred to as an LDEV).
  • a logical volume in which a serial number is set (hereinafter, this logical volume will be referred to as GDEV) is constructed.
  • a plurality of LDEVs managed by a plurality of disk control devices 310 can be used between the plurality of disk control devices 310, and the disk control device 310 configured by a plurality of cases can be regarded as one.
  • a plurality of LDEVs managed as individual disk control devices 310 as a disk control device 310 including a housing can be handled as GDEVs managed by one virtual disk control device.
  • a virtual volume (VVol: Virtual Volume) is generated on the disk controller 310 side, and one or more GDEVs are mapped to the virtual volume.
  • VVol Virtual Volume
  • GDEV1, GDEV2, and GDEV5 are mapped to the virtual volume VVol1 generated by the disk controller DKC1
  • GDEV2 is mapped to the virtual volume VVol2 generated by the disk controller DKC2.
  • GDEV4 and GDEV6 are mapped to the virtual volume VVol3 generated by DKC3.
  • GDEV1 and GDEV2 are managed by the disk controller DKC1
  • GDEV3 and GDEV4 are managed by the disk controller DKC2
  • GDEV5 and GDEV6 are managed by the disk controller DKC3
  • the disk controller 310 manages each logical volume. Write and read data respectively. Therefore, when performing remote copy or the like of the virtual volume VVol1, GDEV1, GDEV3, and GDEV5 mapped to VVol1 can be processed in parallel by the DKC1, DKC2, and DKC3 controllers. The remote copy at the time of disaster recovery construction will be described in detail in the second embodiment.
  • the virtual machine 250 can be used even when a GDEV with high access frequency is to be replaced with another GDEV.
  • Data migration can be performed without changing the mapping with the data store 260 associated with the virtual disk 251. The migration according to the access frequency will be described in detail in the third embodiment.
  • the virtual volume (data store 260) on the virtual machine 250 is applied by applying a storage policy such as a device type, disk capacity, and performance when the virtual machine 250 is constructed.
  • a storage policy such as a device type, disk capacity, and performance when the virtual machine 250 is constructed.
  • GDEV logical volume
  • a storage policy including a device type, disk capacity, performance, and the like is defined, and a relationship between the virtual volume (VVol) network 40 and the logical volume (GDEV) 500 is previously built for each policy, and a virtual machine
  • VVol virtual volume
  • GDEV logical volume
  • the virtual volume (VVol) network 40 corresponding to the selected policy can be mapped to the data store 260.
  • the administrator who manages the virtualization server 200 can easily perform settings on the storage system side for constructing the virtual machine 250 only by selecting a policy suitable for the desired storage environment. .
  • a virtual machine management table 222 for managing virtual machines built on the virtualization server 200 will be described with reference to FIG.
  • the virtual machine management table 222 is a table managed by the hypervisor 221 of the virtualization server 200. As shown in FIG. 4, the virtual machine management table 222 includes a VM name column 2220, a virtual disk column 2221, a capacity column 2222, a data store name column 2223, and a device type column 2224.
  • the name of the virtual machine 250 is stored.
  • the virtual disk column 2221 stores the names of virtual disks (VMDK) 251 constituting the virtual machine 250.
  • Information indicating the capacity of the virtual disk 251 is stored in the capacity column 2222.
  • the data store name column 2223 stores the name of the data store that constructs the virtual disk 251.
  • the device type column 2224 stores information indicating the device type of the data store.
  • the virtual machine VM3 is composed of virtual disks VMDK3 and VMDK4, the capacity of VMDK3 and VMDK4 is 100, the data store 260 for constructing VMDK3 and VMDK4 is the data store 3, and the device type is SATA. .
  • the data store management table 223 is a table managed by the hypervisor 221 of the virtualization server 200. As shown in FIG. 5, the data store management table 223 includes a data store name column 2230, a capacity column 2231, a device name column 2232, a volume column 2233, a data store type column 2234, and a device type column 2235.
  • the data store capacity column 2231 stores information indicating the capacity of the data store 260.
  • the device name column 2232 stores the name of the storage device that provides the data store 260.
  • the volume column 2233 stores the name of the virtual volume (VVol) network 40 associated with the data store 260.
  • the data store type field 2234 stores information indicating the data store type.
  • the device type column 2235 stores information indicating the device type of the data store 260.
  • the data store 1 has a capacity of 300 GB, the capacity is provided from the storage 1 and is associated with the virtual volume VVol1, the data store type is VVOL, and the device type is SAS.
  • the virtual volume management table 361 is a table managed by each disk controller 310. As shown in FIG. 6, the virtual volume management table 361 includes a VVOL # column 3610, a VVOL capacity column 3611, a GDEV capacity column 3612, a configuration GDEV # column 3613, a configuration DKC # column 3614, a device type column 3615, and an IOPS column 3616. Composed.
  • VVOL # column 3610 information for identifying the virtual volume network 40 is stored.
  • Information indicating the capacity of the virtual volume network 40 is stored in the VVOL capacity column 3611.
  • the GDEV capacity column 3612 stores the name of the GDEV 500 that is mapped to the virtual volume network 40.
  • the configuration DKC # column 3614 stores information for identifying the disk controller 310 that manages the GDEV 500 mapped to the virtual volume network 40.
  • the device type column 3615 stores information indicating the GDEV device type mapped to the virtual volume network 40.
  • the IOPS column 3616 stores information indicating the GDEV IOPS (Input Output Per Second) mapped to the virtual volume network 40.
  • the capacity of the virtual volume VVol1 is 300 GB
  • the GDEV 500 mapped to VVol is GDEV1, GDEV3, and GDEV5.
  • DKC3 device type is SAS
  • IOPS is 600.
  • the GDEV management table 371 for managing the configuration of the GDEV 500 managed by the disk controller 310 will be described with reference to FIG.
  • the GDEV management table 371 is a table managed by each disk controller 310. As shown in FIG. 7, the GDEV management table 371 includes a GDEV # column 3710, a site # column 3711, a DKC ID column 3712, an LDEV # column 3713, a capacity column 3714, and a device type 3715.
  • the site # column 3711 stores information for identifying a site where the GDEV 500 exists.
  • the site means a local site or a remote site when building disaster recovery.
  • the site name of the local site is set as site 1
  • the site name of the remote site is set as site 2.
  • the DKC # column 3712 stores information for identifying the disk control device 310 that manages the GDEV 500.
  • the LDEV # column 3713 information for identifying the LDEV 600 corresponding to the GDEV 500 is stored.
  • the capacity column 3714 stores information indicating the capacity of the GDEV 500.
  • the device type 3715 stores information indicating the device type of the GDEV 500.
  • GDEV1 exists in site 1, is managed by DKC1, is associated with LDEV1, has a capacity of 100 GB, and a device type is SAS.
  • the GDEV 500 is a logical volume in which a serial number throughout the storage subsystem 300 is set, and is associated with the LDEV 600 on a one-to-one basis in this embodiment.
  • the LDEV management table 381 for managing the configuration of the LDEV 600 managed by the disk controller 310 will be described with reference to FIG.
  • the LDEV management table 381 is a table managed by each disk controller 310. As shown in FIG. 8, the LDEV management table 381 includes an LDEV # column 3810, a capacity column 3811, and a device type column 3812.
  • the capacity column 3811 stores information indicating the capacity of the LDEV 600.
  • the device type column 3812 stores information indicating the device type of the LDEV 600.
  • FIG. 8 shows that, for example, the capacity of LDEV1 is 100 GB and the device type is SAS.
  • the storage policy management table 224 is a table managed by the hypervisor 221 of the virtualization server 200, and is set in advance by a system administrator or the like. As shown in FIG. 9, the storage policy management table 224 includes a storage policy name column 2240, a device type column 2241, a capacity column 2242, a lower limit IOPS column 2243, an upper limit IOPS 2244, a remote copy type column 2245, a remote site # column 2246, and the like. Composed.
  • the storage policy name field 2240 stores information indicating the name of the storage policy.
  • the device type column 2241 stores information indicating the device type set in the storage policy.
  • the capacity column 2242 stores information indicating the capacity set in the storage policy.
  • the lower limit IOPS column 2243 and the upper limit IOPS 2244 store information indicating the lower limit and the upper limit of the IOPS set in the storage policy.
  • the remote copy type column 2245 stores the type of remote copy set in the storage policy.
  • the remote site # column 2246 stores information for identifying the remote site set in the storage policy.
  • the storage policy A has a device type of SAS, a capacity of 300 GB, an IOPS lower limit of 200 and an upper limit of 1000, a remote copy type of high speed DR, and a remote site of 2 sites.
  • the remote copy type will be described in detail in the second embodiment.
  • the storage policy shown in FIG. 9 is set in advance in response to an input from the system administrator or the like, and the relationship between the virtual volume (VVol) network 40 and the logical volume (GDEV) 500 for each storage policy.
  • VVol virtual volume
  • GDEV logical volume
  • the virtual machine management software 122 creates a storage policy in response to an input from the system administrator (S101).
  • the virtual machine management software 122 displays information such as the device type corresponding to the storage policy name input by the system administrator via the input interface of the management server 100, the upper limit and the lower limit of the capacity IOPS, and the like.
  • the management table 224 Set in the management table 224.
  • step S ⁇ b> 102 the virtual machine management software 122 starts construction of the virtual machine 250 by executing the virtual machine 250 creation program.
  • the virtual machine management software 122 determines whether the virtual disk 251 to be deployed on the virtual machine 250 is a storage policy method, that is, whether to deploy the virtual disk 251 to the virtual machine 250 using the storage policy (S103). In step S103, the virtual machine management software 122 makes a determination by determining whether the system administrator has instructed the construction of the virtual machine 250 using the storage policy.
  • step S104 the virtual machine management software 122 extracts the data store 260 that matches the storage policy (S104).
  • the data store extraction process in step S104 will be described with reference to FIG.
  • the virtual machine management software 122 acquires volume information of the virtual volume network 40 from the VVOL management software 123 and the storage management software 124 (S121). Specifically, the virtual machine management software 122 acquires information such as device types, IOPS, and capacities of the plurality of virtual volume networks 40 that are associated with the data store 260 and managed by the plurality of disk control devices 310. To do.
  • the virtual machine management software 122 compares the device type set in the storage policy created in step S101 with the device type acquired in step S121, and determines whether there is a data store 260 that matches the storage policy. Determination is made (S122).
  • the virtual machine management software 122 compares the IOPS information set in the storage policy created in step S101 with the IOPS information acquired in step S121, and the data store 260 matching the storage policy is found. It is determined whether there is (S123).
  • the virtual machine management software 122 compares the capacity information set in the storage policy created in step S101 with the capacity information acquired in step S121, and the data store 260 matching the storage policy is found. It is determined whether it exists (S124).
  • the virtual machine management software 122 extracts the data store 260 that satisfies all the determinations in steps S122 to S124 (S125).
  • the virtual machine management software 122 displays the list of the data stores extracted in step S104 on the display screen of the management server 100 (S106). Specifically, the virtual machine management software 122 causes the display screen of the management server 100 to display a list of data stores determined to match the storage policy as a result of the determination in steps S122 to S124 in FIG.
  • step S103 if it is determined in step S103 that the virtual disk 251 deployed in the virtual machine 250 is not of the storage policy method, the virtual machine management software 122 displays a list of all data stores 260 on the display screen of the management server 100. (S105).
  • the virtual machine management software 122 selects the data store selected according to the input from the system administrator (S107), and sets the virtual disk 251 (S108). In step S ⁇ b> 108, the virtual machine management software 122 associates the virtual disk 251 with the data store 260.
  • the virtual machine management software 122 performs setting of the virtual machine 250 in addition to the setting of the virtual disk 251 (S109).
  • the virtual machine management software 122 performs setting of a user who uses the virtual machine 250, security setting, and the like, for example.
  • a plurality of disk control devices 310 replace one or a plurality of logical volumes (GDEV 500) conforming to a preset storage policy with a virtual volume (VVOL).
  • the management server 100 maps a virtual volume (VVOL network 40) that satisfies the conditions set in the storage policy when any storage policy is selected by an input from the system administrator or the like.
  • a virtual machine 250 is constructed in association with the machine 250.
  • a storage policy such as a device type, disk capacity, and performance is applied to automatically map a virtual volume corresponding to the virtual machine 250 and a volume provided by the storage system,
  • the environment construction of the storage system is facilitated, and the management of the entire system is facilitated.
  • the above storage policy is also used when the DR environment is constructed. That is, in the DR environment in which remote copy is performed between the local site and the remote site, a virtual volume is created on the disk controller 310 side in both the local site and the remote site, as in the first embodiment. Map one or more GDEVs to a volume.
  • a storage policy set by a system administrator or the like is applied, and a virtual volume (data store 260) on the virtual machine 250 is applied.
  • a logical volume (GDEV) 500 provided by the storage system.
  • a plurality of logical volumes (GDEV 500) provided by the disk controller 310 and a virtual volume (VVol network 40) corresponding to a virtual machine are linked together.
  • the virtual volume network 40 is created across the controllers of the disk control devices 310 of the other.
  • remote copy of the virtual volume network 40 can be executed using a plurality of controllers, and the remote copy can be speeded up.
  • the computer system includes a local site including a management server 100A, a virtualization server 200A, and a disk control device 310A, and a management server 100B.
  • the remote site is composed of the virtualization server 200B and the disk control device 310B.
  • the disk controller 310A at the local site and the disk controller 310B at the remote site are connected via a network, and the data stored in the disk controller 310A at the local site by the remote copy function is transferred to the disk controller 310B at the remote site. Backed up.
  • a DR diisaster recovery environment
  • the management servers 100A and 100B can assign serial numbers to the volumes existing in the plurality of disk control devices 310A and 310B, and set the remote copy destination virtual volume in the management server 100A.
  • the hardware configuration is the same as that of the disk control device 310 of the management server 100, virtualization server 200, and storage subsystem 300 of the first embodiment, and detailed description thereof is omitted.
  • the virtual machine management software 122 of the management server 100 automatically creates a remote copy destination volume and sets remote copy based on the storage policy applied when the local site virtual machine 250 is constructed.
  • the virtual machine management software 122 executes the hypervisor 221 based on the storage policy created according to the input of the system administrator or the like, and constructs the virtual machine 250 on the local site side. Then, the virtual machine management software 122 acquires volume information of the remote copy source from the VVOL management software 123 and the storage management software 124. Then, the virtual machine management software 122 instructs the VVOL management software 123 to create a remote copy destination volume.
  • the VVOL management software 123 that has been instructed to create a remote copy destination volume acquires information on the GDEV 500 of the storage subsystem 300 from the storage management software 124.
  • the storage management software 124 acquires information on the GDEV 500 on the storage subsystem 300 from the remote copy management program 350 or the GDEV management program 370 of the disk controller 310 periodically or at a predetermined opportunity.
  • the VVOL management software 123 sets the VVOL network 40 of the remote copy destination volume so as to have the same GDEV configuration as the remote copy source volume.
  • the VVOL management software 123 notifies the setting contents of the VVOL network 40 to the VVOL management program 360 of the disk controller 310.
  • the virtual machine management software 122 instructs the DR management software 121 to set the DR configuration.
  • the DR management software 121 instructed to set the DR configuration instructs the storage management software to set the pairing of the remote copy source volume and the remote copy destination volume.
  • the storage management software 124 implements remote copy setting between the remote copy source volume and the remote copy destination volume.
  • the number of GDEVs 500 configuring the VVOL network 40 is made to match the number of disk controllers 310 at the local site or the remote site.
  • the number of disk controllers 310 it is possible to perform parallel processing by the number of disk controllers 310, and when copying a large amount of data, such as at the time of initial copy of remote copy or recovery copy at the time of failure recovery.
  • the effect of speeding up the copying process is increased.
  • FIG. 14 is a flowchart illustrating virtual machine creation processing using a storage policy. Steps S101 to S109 in FIG. 14 are the same as those in FIG. 10 of the first embodiment, and detailed description thereof is omitted.
  • step S104 the data store extraction process in step S104 is executed in addition to the process of the first embodiment, and will be described in detail with reference to FIG. .
  • the processing in step S121 to step S125 in FIG. 15 is the same as that in FIG. 11 of the first embodiment, and detailed description thereof is omitted.
  • the virtual machine management software 122 compares the volume information set in the storage policy in steps S122 to S124 with the volume information acquired in step S121, and then determines whether the remote copy type is a high-speed DR. Is determined (S126).
  • the virtual machine management software 122 refers to the remote copy type in the storage policy management table 224 shown in FIG. 9 and determines whether the remote copy type is high-speed DR.
  • the remote copy type will be described.
  • information high speed DR, medium speed DR, low speed DR
  • high speed DR medium speed DR
  • low speed DR low speed DR
  • information NONE indicating that construction of the DR environment is not required
  • High-speed DR diisaster recovery
  • data that needs to be remotely copied at high speed includes data that needs to be urgently recovered, such as financial system online data.
  • the configuration of the logical volume (GDEV) 500 mapped to the virtual volume (VVOL) network 40 at the remote site is set to the same configuration as that at the local site, so that the remote copy Can be performed at high speed.
  • the medium-speed DR is set when the number of disks 330 at the remote site is smaller than the number of disks 330 at the local site for cost reduction or the like, although urgency is required.
  • the medium speed DR is set as the remote copy type
  • the device type of the logical volume (GDEV) 500 mapped to the virtual volume (VVOL) network 40 at the remote site is the same, but the GDEV mapped to the VVOL network 40 is used.
  • the number of remote sites may be less than the number of remote sites.
  • the low-speed DR is set when there is no urgent need for recovery of a failure such as archive data or when the remote site is an inexpensive device (SATA) for cost reduction.
  • SATA inexpensive device
  • an inexpensive disk 330 such as SATA is mapped to the virtual volume (VVOL) network 40 at the remote site.
  • step S126 If it is determined in step S126 that the remote copy type is high-speed DR, the virtual machine management software 122 determines whether there is a remote copy destination data store 260 that matches the device type set in the storage policy. Determination is made (S127).
  • the virtual machine management software 122 determines whether there is a remote copy destination data store 260 that matches the IOPS set in the storage policy (S128).
  • the virtual machine management software 122 determines whether there is a remote copy destination data store 260 that matches the capacity set in the storage policy (S129).
  • the virtual machine management software 122 has the same capacity of the VVOL network 40, the capacity of the GDEV 500, and the number of disk controllers 310 as those of the local site even in the remote copy destination among the data stores 260 extracted at the local site.
  • the data store 260 that can be created is extracted (S130).
  • step S126 If it is determined in step S126 that the remote copy type is not high-speed DR, the data store 260 that satisfies all the determinations in steps S122 to S124 is extracted (S125).
  • the virtual machine management software 122 determines whether the remote copy type set in the storage policy is NONE (S110).
  • the remote copy type of NONE indicates that there is no need to construct a DR environment as described above.
  • step S110 If it is determined in step S110 that the remote copy type is NONE, the virtual machine management software 122 ends the process.
  • step S110 determines that the remote copy type is not NONE, that is, it is set to construct a DR environment.
  • the virtual machine management software 122 creates the VVOL network 40 at the remote copy destination ( S111).
  • the virtual machine management software 122 acquires volume information of the remote copy source virtual volume network 40 from the VVOL management software 12 and the storage management software 124 (S131).
  • the virtual machine management software 122 determines whether the remote copy type included in the volume information acquired in step S131 is a high speed DR, a medium speed DR, or a low speed DR (S132).
  • step S132 If it is determined in step S132 that the remote copy type is high-speed DR, the virtual machine management software 122 has the same capacity as the capacity of the GDEV 500 at the local site in the GDEV 500 at the remote site, and the device type is the same. The same GDEV 500 is extracted (S133).
  • the virtual machine management software 122 selects the GDEV 500 one by one from the different storage control devices (DKCs) 310 for the same number of GDEVs 500 as the remote copy source VVOL network 40 among the GDEVs 500 extracted in step S133. (S136).
  • DKCs storage control devices
  • step S132 If it is determined in step S132 that the remote copy type is medium-speed DR, the virtual machine management software 122 has the same capacity as the capacity of the VVOL network 40 at the local site in the GDEV 500 at the remote site, and GDEV500 with the same device type is extracted (S134).
  • the remote site type is set when the number of disks 330 at the remote site is smaller than the number of disks 330 at the local site for cost reduction or the like.
  • the capacity and device type of the VVOL network 40 at the local site are the same, the number of GDEVs 500 mapped to the VVOL network 40 and the number of disk controllers 310 are the same as when the remote copy type is high-speed DR. Not required.
  • step S132 If it is determined in step S132 that the remote copy type is the low speed DR, the virtual machine management software 122 has the same capacity as the capacity of the VVOL network 40 at the local site in the GDEV 500 at the remote site, and the device The GDEV 500 whose type is SATA is extracted (S135).
  • the virtual machine management software 122 causes the VVOL management software 123 to create the VVOL network 40 with the GDEV 500 selected in Step S133, Step S134, or Step S135 (S137). Specifically, the VVOL management software 123 stores association information between the VVOL network 40 and the GDEV 500 in the virtual volume management table 361.
  • the virtual machine management software 122 creates a remote copy destination VVOL network 40 in step S111 in the virtual machine management software 122 on the remote site side, and then uses the remote copy destination data store 260 to create a local copy.
  • An instruction is given to create a virtual machine 250 having the same settings as the site (S112).
  • step S113 the virtual machine management software 122 performs remote copy setting (S113).
  • the details of the remote copy setting process in step S113 will be described with reference to FIG.
  • the virtual machine management software 122 instructs the DR management software 121 to perform DR setting for the virtual machine 250 created at the local site and the remote site (S141).
  • step S141 the DR management software 121 instructed to set DR performs DR setting such as association for the designated remote site and local site virtual machines 250 (S142).
  • the DR management software 121 instructs the storage management software 124 to perform remote copy setting for the virtual volume network 40 at the local site and the remote site (S143).
  • step S143 the storage management software 124 instructed to perform the remote copy setting performs remote copy setting such as associating the virtual volume network 40 of both sites for the designated local site and remote site (S144).
  • creation of a DR environment using a storage policy that is, remote copy setting is automatically performed.
  • the detailed setting of the DR environment is performed according to the input of the administrator.
  • Detailed settings of the DR environment include creation of a recovery plan when a failure occurs, creation of a protection group, and the like.
  • the DR management software 121 instructs the virtual machine management software 122 to create a snapshot of the remote copy source virtual machine 250 (S201).
  • the virtual machine management software 122 instructed to create a snapshot in step S201 creates a snapshot of the designated virtual machine 250 (S202).
  • the DR management software 121 instructs the storage management software 124 to resynchronize data between the remote copy source VVOL network 40 and the remote copy destination VVOL network 40 (S203).
  • the storage management software 124 acquires volume information of the remote copy source VVOL network 40 and the remote copy destination VVOL network 40 specified in step S203 (S204).
  • the storage management software 124 then configures the specified remote copy source VVOL network 40 and remote copy destination VVOL network 40 with a plurality of GDEVs 500 based on the volume information acquired in step S204. And it is judged whether it is the same number of GDEV500 (S205).
  • step S205 If it is determined in step S205 that all of the designated VVOL networks 40 are configured with a plurality of GDEVs 500 and the same number of GDEVs 500, correspondence is made between the remote copy source and the remote copy destination. Remote copy is performed between the GDEVs 500 (S206). On the other hand, if any of the designated VVOL networks 40 is not a plurality of GDEVs 500 and the same number of GDEVs 500 in step S205, the corresponding VVOL network 40 between the remote copy source and the remote copy destination Then, remote copy is performed (S207).
  • step S206 when remote copying is performed between the corresponding GDEVs 500, the copy processing can be performed in parallel by the plurality of disk control devices 310 that manage the GDEV 500. Therefore, the speed of remote copying can be increased. it can.
  • step S207 since a remote copy is performed between the VVOL networks 40, a single copy process is performed.
  • the storage management software 124 When the remote copy is completed, the storage management software 124 notifies the DR management software 121 that the remote copy has been completed (S208).
  • the DR management software 121 instructs the virtual machine management software 122 to delete the snapshot created in step S202 (S209).
  • the virtual machine management software 122 instructed to delete the snapshot in step S209 deletes the snapshot of the designated virtual machine 250 (S210).
  • the virtual machine management software 122 of the management server 100 performs conceptual setting such as high-speed DR, medium-speed DR, or low-speed DR as the storage policy.
  • the type of VVOL network 40 to be configured is set by the VVOL management program 360 in the storage subsystem 300.
  • the configuration of the logical volume (GDEV) 500 mapped to the virtual volume (VVOL) network 40 at the remote site may be the same as that of the local site. It is done. Further, in order to reduce the cost, the device of the logical volume (GDEV) 500 that is mapped to the virtual volume (VVOL) network 40 at the remote site when the number of the disks 330 at the remote site is less than the number of the disks 330 at the local site.
  • the number of GDEVs mapped to the VVOL network 40 is set to be smaller than the number of remote sites, or an inexpensive disk 330 such as SATA is mapped to the virtual volume (VVOL) network 40 of the remote site. And so on.
  • the plurality of disk control devices 310 respond to a request from the management server 100 and a plurality of logical units according to the remote copy type included in the storage policy.
  • a predetermined number of logical volumes (GDEV 500) among the volumes (GDEV 500) are mapped to the local site virtual volume (VVOL network 40) and the remote site virtual volume (VVOL network 40). This facilitates the construction of a DR (disaster recovery) environment and speeds up remote copying.
  • a storage policy is set in advance and a virtual policy is set for each storage policy.
  • VVol volume
  • GDEV logical volume
  • the virtual machine 250 is constructed by selecting a preset storage policy. As shown in FIG. 9, the upper and lower limits of IOPS can be set as the storage policy.
  • a virtual volume (VVOL) network 40 is allocated to the virtual machine 250 based on the storage policy, and the VVOL network 40 is composed of a plurality of GDEVs 500, as in the first embodiment. .
  • custom_A is specified in the storage policy shown in FIG. 9 in order to satisfy the IOPS set in the storage policy.
  • the custom_A is a disk configuration set by the system administrator in order to increase the speed by configuring only the top area with an SSD for an OS that uses the top area of the virtual volume (VVOL) network 40 as a management area.
  • VVOL5 which is a virtual volume of the disk controller 310
  • the data store 260 which is a virtual volume of the virtualization server 200
  • the VVOL5 is composed of GDEV7, GDEV8, and GDEV9.
  • GDEV7 which is an SSD in the head area of VVOL5
  • GDEV8 and GDEV9 which are SAS to areas other than the head area.
  • a custom A indicating that the device type is designated by the administrator or the like is set in the device type field 2241 of the storage policy. Is done.
  • the VVOL network 40 is configured by the small-capacity GDEV 500 included in the disk controller 310 of the storage subsystem 300, and the disk controllers 310 are connected to each other. It is conceivable to configure a high-performance virtual volume by distributing the load with the.
  • VVOL6 which is a virtual volume of the disk controller 310
  • the data store 260 which is a virtual volume of the virtualization server 200
  • VVOL6 is provided by 10 disk controllers 310 to GDEV10 to GDEV19. It is composed of
  • the GDEV 500 of the plurality of disk control devices 310 is mapped to one VVOL network 40 to load data processing on the plurality of disk control devices 310. It is possible to distribute and provide high-performance virtual volumes.
  • VVOL network 40 is set so as to satisfy the IOPS set in the storage policy, when data is written in response to a request from the virtual machine 250, it is mapped to the VVOL network 40. In some cases, a high load is applied to any GDEV 500, that is, the LDEV 600, and the IOPS setting of the storage policy cannot be satisfied.
  • the virtual machine management software 122 of the management server 100 performs performance monitoring in cooperation with the storage subsystem 300, and if the performance conditions such as IOPS no longer match the storage policy, the VVOL The management software 123 is notified. Then, the VVOL management software 123 changes the mapping of the GDEV 500 mapped to the VVOL network 40 so as to satisfy performance conditions such as storage policy IOPS.
  • VVOL network 40 since only the VVOL network 40 is visible from the virtual machine 250, it is not necessary to change the mapping between the data store 260 of the virtual machine 250 and the VVOL network 40 when performing load balancing of the storage system. It is only necessary to change the mapping between the VVOL network 40 and the GDEV in the storage system. This makes it possible to distribute the load on the storage system without stopping the virtual machine 250.
  • the computer system according to the present embodiment is the same as that of the first embodiment, and detailed description thereof is omitted.
  • the hardware configuration and software configuration of the management server 100, the virtualization server 200, and the storage subsystem 300 that constitute the computer system are the same as those in the first embodiment, and thus detailed description thereof is omitted.
  • the mapping change of the GDEV 500 mapped to the VVOL network 40 performed based on the performance condition according to the present embodiment will be described in detail.
  • VVOL1 which is a virtual volume of the disk controller 310
  • VVOL1 is GDEV1 of DKC1 of the disk controller 310 and DKC2.
  • the IOPS of VVOL1 falls below the lower limit set in the storage policy as a result of data writing or the like in response to a request from the virtual machine 250.
  • the logical volume LDEV1 associated with GDEV1 is assumed to have the highest load.
  • GDEV1 mapped to VVOL1 instead of GDEV1 mapped to VVOL1, GDEV20 of DKC1 of low-load disk controller 310 is mapped to VVOL1 and reconstructed.
  • the load can be distributed and the IOPS can be set to the requested value.
  • the IOPS of VVOL1 falls below the lower limit set in the storage policy
  • a method of distributing the load by increasing the number of GDEVs constituting VVOL1 can be considered.
  • the GDEV managed by the disk control device 310 other than the disk control device (DKC) 310 that already manages the GDEV constituting the VVOL 1 is mapped to the VVOL 1 to reconstruct the VVOL 1.
  • DKC disk control device
  • VVOL1 may be reconstructed by reducing the number of GDEVs mapped to VVOL1, or without changing the number of GDEVs, the number of disk controllers 310 that provide GDEVs may be reduced to make VVOL1. You may rebuild.
  • mapping the virtual volume VVOL with a plurality of GDEVs only the virtual volume VVOL is visible from outside the storage subsystem 300, so the storage subsystem 300 side does not change the mapping for the data store 260. It becomes possible to perform data migration.
  • the virtual machine management software 122 starts performance monitoring of the VVOL network 40 (S301).
  • the performance monitoring in step S301 is periodically executed.
  • the virtual machine management software 122 determines whether the VVOL network 40 that does not satisfy the storage policy IOPS condition is detected as a result of the performance monitoring in step S301 (S302). In step S302, when the VVOL network 40 that does not satisfy the storage policy IOPS condition is not detected, the process ends.
  • step S302 if it is determined in step S302 that the VVOL network 40 that does not satisfy the IOPS condition of the storage policy has been detected, the virtual machine management software 122 uses the VVOL management software 123 and the storage management software 124 to correspond to the corresponding VVOL network 40.
  • the volume information is acquired (S303).
  • the virtual machine management software 122 acquires the load information of the disk control device (DKC) 310 to which the GDEV 500 configuring the detected VVOL network 40 belongs from the storage management software 124 (S304).
  • the virtual machine management software 122 determines whether there is a GDEV having the same site number, capacity, and device type as the GDEV 500 belonging to the disk controller 310 having the highest load (S305). Specifically, the virtual machine management software 122 refers to the GDEV management table 371 and searches for a GDEV having the same site number, capacity, and device type as the target GDEV 500.
  • the virtual machine management software 122 performs volume migration from the GDEV 500 belonging to the disk controller 310 having the highest load in step S305 to the GDEV belonging to the disk controller 310 having the lowest load among the GDEVs searched in step S305. Is instructed to the storage management software 124 (S306).
  • the storage management software 124 instructed to perform volume migration in step S306 performs migration between the designated volumes (S307).
  • the storage management software 124 instructs the VVOL management software 123 to reconstruct the VVOL network 40 by exchanging the GDEV 500 belonging to the disk controller 310 with the highest load with the GDEV 500 by performing volume migration ( S308). Then, the VVOL management software 123 reconstructs the VVOL network 40 designated in step S308 (S309).
  • the rebuilding process of the VVOL network 40 in step S309 may be performed without waiting for the end of the migration process between volumes in step S307.
  • data is transferred to the pre-migration volume or the post-migration volume using a flag indicating whether the migration is completed for each predetermined area (page). Read / write processing is executed.
  • the virtual machine management software 122 determines whether another VVOL network 40 that does not satisfy the IOPS condition of the storage policy has been detected (S310).
  • step S310 If it is determined in step S310 that the VVOL network 40 that does not satisfy the storage policy IOPS condition is detected, the virtual machine management software 122 repeats the processing from step S303. On the other hand, in step S310, if the VVOL network 40 that does not satisfy the storage policy IOPS condition is not detected, the virtual machine management software 122 ends the VVOL reconstruction processing.
  • Management Server 121 DR Management Software 122 Virtual Machine Management Software 123 VVOL Management Software 124 Storage Management Software 200 Virtualization Server 221 Hypervisor 222 Virtual Machine Management Table 223 Data Store Management Table 224 Storage Policy Management Table 300 Storage Subsystem 310 Disk Controller 350 Remote Copy Management Program 351 Remote Copy Management Table 360 VVOL Management Program 361 VVOL Management Table 370 GDEV Management Program 371 GDEV Management Table 380 LDEV Management Program 381 LDEV Management Table

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ストレージシステムの物理ボリュームと仮想マシンに対応する仮想ボリュームとを所定のストレージポリシにしたがって予め対応付けて、ストレージシステムの管理を容易化する。 【解決手段】複数のディスク制御装置は、前記複数の物理ディスクにより提供される所定の記憶領域を1または複数の論理ボリュームとして管理し、管理サーバからの要求に応じて、前記仮想マシンの容量情報を含み、前記仮想マシンを構築するために予め設定されたストレージポリシに適合する前記1または複数の論理ボリュームを前記仮想マシンに提供する仮想ボリュームにマッピングし、前記管理サーバは、一の前記ストレージポリシが選択された場合に、該ストレージポリシに合致する前記仮想ボリュームを前記仮想マシンに対応付けることにより前記仮想マシンを構築する。

Description

ストレージシステム及びストレージシステム管理方法
 本発明は、ストレージシステム及びストレージシステム管理方法に関し、仮想化環境システムを構築するストレージシステム及びストレージシステム管理方法に適用して好適なるものである。
 複数のハードディスクドライブ(以降、HDD(Hard Disk Drive)と称して説明する場合もある。)へのデータ書き込み等を制御するディスクアレイ装置では、HDDの容量や搭載台数の増加に伴い、ディスクアレイ装置自体のサポート容量も大幅に増加している。しかし、HDDを制御するコントローラの性能については、HDDの容量増加に対応できない場合があった。
 そこで、特許文献1では、複数のディスクアレイ装置を物理的な境界を越えて1つのストレージシステムとして仮想化することで、高性能なディスクアレイ装置を提供することが行われている。
 また、特許文献2では、仮想マシン(VM:Virtual Machine)に対応する仮想ボリューム(VVOL:Virtual Volume)をホストへ提供する技術が開示されている。
国際公開第2012/007999号 米国特許出願公開第2013/0054932号明細書
 しかし、特許文献1において提供される仮想化環境では、データをボリューム単位で扱うため、当該環境でストレージシステムのプロダクトプログラム(Program Product)機能を利用するためには、ストレージシステムが提供するボリュームと、仮想マシンが提供する仮想ボリュームとを手動でマッピングしなければならず、大規模システムでは管理が煩雑となるという問題があった。
 本発明は以上の点を考慮してなされたもので、ストレージシステムの物理ボリュームと仮想マシンに対応する仮想ボリュームとを所定のストレージポリシにしたがって予め対応付けて、ストレージシステムの管理を容易化するストレージシステム及びストレージシステム管理方法を提案しようとするものである。
 かかる課題を解決するために本発明においては、複数の物理ディスクを有する複数のディスク制御装置と、仮想マシンに割り当てられる前記複数の物理ディスクを管理する管理サーバとがネットワークを介して接続され、前記複数のディスク制御装置は、前記複数の物理ディスクにより提供される所定の記憶領域を1または複数の論理ボリュームとして管理し、前記管理サーバからの要求に応じて、前記仮想マシンの容量情報を含み、前記仮想マシンを構築するために予め設定されたストレージポリシに適合する前記1または複数の論理ボリュームを前記仮想マシンに提供する仮想ボリュームにマッピングし、前記管理サーバは、一の前記ストレージポリシが選択された場合に、該ストレージポリシに合致する前記仮想ボリュームを前記仮想マシンに対応付けることにより前記仮想マシンを構築することを特徴とする、ストレージシステム装置が提供される。
 かかる構成によれば、複数のディスク制御装置は、予め設定されたストレージポリシに適合する1または複数の論理ボリュームを仮想ボリュームにマッピングし、管理サーバは、システム管理者等の入力によりいずれかのストレージポリシが選択された場合に、該ストレージポリシに設定された条件を満たす仮想ボリュームを仮想マシンに対応付けて仮想マシンを構築する。これにより、仮想マシンの構築時に、デバイスタイプやディスクの容量、性能などのストレージポリシを適用して、仮想マシンに対応する仮想ボリュームとストレージシステムが提供するボリュームとのマッピングを自動化して、ストレージシステムの環境構築を容易化し、システム全体の管理を容易化している。
 本発明によれば、ストレージシステムの物理ボリュームと仮想マシンに対応する仮想ボリュームとを所定のストレージポリシをもとに予め対応させて、ストレージシステムの管理を容易化することができる。
本発明の第1の実施形態に係る計算機システムの構成を示すブロック図である。 同実施形態にかかるディスク制御装置のメモリの構成を示すブロック図である。 同実施形態にかかる仮想ボリュームと物理ボリュームの連携を説明する概念図である。 同実施形態にかかる仮想マシン管理テーブルの内容を示す図表である。 同実施形態にかかるデータストア管理テーブルの内容を示す図表である。 同実施形態にかかる仮想ボリューム管理テーブルの内容を示す図表である。 同実施形態にかかるGDEV管理テーブルの内容を示す図表である。 同実施形態にかかるLDEV管理テーブルの内容を示す図表である。 同実施形態にかかるストレージポリシ管理テーブルの内容を示す図表である。 同実施形態にかかる仮想マシン作成処理の流れを示すフローチャートである。 同実施形態にかかるデータストア抽出処理の流れを示すフローチャートである。 本発明の第2の実施形態に係る計算機システムの構成を示すブロック図である。 同実施形態にかかるDR環境構築時の仮想ボリュームと物理ボリュームとの連携を説明する概念図である。 同実施形態にかかるストレージポリシを利用したDR環境の作成処理を示すフローチャートである。 同実施形態にかかるデータストア抽出処理の流れを示すフローチャートである。 同実施形態にかかるリモートコピー先のVVOLの作成処理の流れを示すフローチャートである。 同実施形態にかかるリモートコピー設定処理の流れを示すフローチャートである。 同実施形態にかかるリモートコピー処理の流れを示すフローチャートである。 本発明の第3の実施形態に係る仮想ボリュームに対する論理ボリュームのマッピングを説明する概念図である。 同実施形態にかかる仮想ボリュームに対する論理ボリュームのマッピングを説明する概念図である。 同実施形態にかかる仮想ボリュームに対する論理ボリュームのマッピングを説明する概念図である。 同実施形態にかかる仮想ボリュームに対する論理ボリュームのマッピングを説明する概念図である。 同実施形態にかかる負荷分散のためのVVOL再構築処理の流れを示すフローチャートである。
 以下図面について、本発明の一実施の形態を詳述する。
 なお、以下の説明では「xxxテーブル」の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていてもよい。データ構造に依存しないことを示すために「xxxテーブル」を「xxx情報」と呼ぶことができる。
 以下の説明では、要素を特定するためにID(識別子)或いは番号が使用されるが、識別情報として、他種の情報(例えば名前)が使用されて良い。
 以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)及び/又は通信インタフェース装置(例えば通信ポート)を用いながら行うため、処理の主語がプロセッサとされてもよい。プログラムを主語として説明された処理は、ディスク制御装置、ディスク制御装置が有するコントローラ、或いは管理サーバが行う処理としても良い。プロセッサは、プロセッサが行う処理の一部又は全部を行うハードウェア回路を含んでも良い。コンピュータプログラムは、プログラムソースから各計算機にインストールされても良い。プログラムソースは、例えば、プログラム配布サーバ又は記憶媒体であっても良い。
(1)第1の実施の形態
(1-1)本実施の形態の概要
 まず、本実施の概要について説明する。上記したように、従来、複数のディスク制御装置を物理的な境界を越えて1つのストレージシステムとして仮想化することで、高性能なディスクアレイ装置を提供することが行われている。また、仮想マシンに対応する仮想ボリュームをホストへ提供することも行われている。
 しかし、従来の仮想化環境では、データをボリューム単位で扱うため、当該環境でストレージシステムのプロダクトプログラム機能を利用するためには、ストレージシステムが提供するボリュームと、仮想マシンが提供する仮想ボリュームとを手動でマッピングしなければならなかった。
 また、従来の仮想化環境では、ホストに提供する仮想ボリュームと、ストレージシステムの1のコントローラが管理する1の論理ボリュームとを1対1で作成する必要があり、複数のコントローラにまたがった論理ボリュームを作成することができなかった。したがって、従来の仮想化環境では、リモートコピー等を複数のコントローラで処理できるにもかかわらず、1つのボリュームのコピー等を行う際に複数のコントローラを利用した処理ができずストレージシステムの効率化を図れないという問題があった。
 そこで、本実施の形態では、ストレージシステムが提供する論理ボリュームと仮想マシンに対応する仮想ボリュームとを連携させて、複数のコントローラ間にまたがってボリュームを作成し、ボリュームのコピー時に複数のコントローラを利用することによりリモートコピー等を高速化することを可能としている。具体的に、仮想マシンの構築時に、デバイスタイプやディスクの容量、性能などのストレージポリシを適用することにより、仮想マシンが提供する仮想ボリュームとストレージシステムが提供するボリュームとのマッピングを自動化して、ストレージシステムの環境構築を容易化し、システム全体の管理を容易化している。これにより、ディザスタリカバリ(DR:Disaster Recovery)の環境構築を容易化することも可能となる。また、ストレージシステムの負荷分散を行う際に、仮想マシンを無停止でマイグレーション等を実行することも可能となる。ディザスタリカバリの環境構築については第2の実施の形態で、ストレージシステムの負荷分散については第3の実施の形態で詳細に説明する。
(1-2)計算機システムの構成
 本実施の形態にかかる計算機システムは、図1に示すように、管理サーバ100と、管理サーバ100が制御する仮想化サーバ200と、ストレージサブシステム300とから構成される。
 管理サーバ100は、仮想化サーバ200及びストレージサブシステム300を保守または管理するためのコンピュータ装置である。仮想化サーバ200は、管理サーバ100に制御され、仮想化サーバ200やストレージサブシステム300の物理的なコンピュータ資源を仮想的に分割し、分割されたコンピュータ資源が各々割り当てられた複数の仮想マシン(VM:Virtual Machine)の構成を管理する装置である。なお、以下では、1つの仮想化サーバ200に複数の仮想マシンを管理する場合を説明するが、かかる例に限定されず、1つまたは複数の仮想化サーバ200は、1つまたは複数の仮想化サーバ200内の1つまたは複数の仮想マシンを管理することとしてもよい。
 ストレージサブシステム300は、複数のディスク330を有し、管理サーバ100及び仮想化サーバ200及び仮想化サーバ200とネットワーク40を介して接続される。ネットワーク40は、例えば、FC(Fibre Channel)ネットワーク、LAN(Local Area Network)、或いはインターネットなどである。
(1-3)各装置のハードウェア構成
(1-3-1)管理サーバのハードウェア構成
 管理サーバ100は、図1に示すように、CPU110、メモリ120、インタフェース(図中I/Fと表記)130及びユーザインタフェース(図中UIと表記)140などから構成される。
 CPU110は、演算処理装置及び制御装置として機能し、メモリ120に記憶されている各種プログラムにしたがって、管理サーバ100全体の動作を制御する。
 メモリ120は、CPU110が使用するプログラムや演算パラメータ等を記憶し、ROM(Read Only Memory)や、RAM(Random Access Memory)などから構成される。メモリ120には、仮想化サーバ200上の仮想マシンの構築や変更を管理する管理プログラム(ディザスタリカバリ管理ソフト(図中DR管理ソフトと表記)121、仮想マシン管理ソフト(図中VM管理ソフトと表記)122、仮想ボリューム管理ソフト(図中VVOL管理ソフトと表記)123、ストレージサブシステム300の構成を管理する管理プログラム(ストレージ管理ソフト124)などが格納される。各管理プログラムについては後で詳細に説明する。
 インタフェース130は、外部機器と接続されるインタフェースであって、例えばローカルエリアネットワーク(LAN)に接続するためのデータ伝送可能な外部機器と接続するための接続口である。
 ユーザインタフェース140は、入出力デバイスである。入出力デバイスの例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外のデバイスであってもよい。また、入出力デバイスの代替としてシリアルインターフェースやイーサーネットインターフェースを入出力デバイスとし、当該インタフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力デバイスでの入力及び表示を代替してもよい。
(1-3-2)仮想化サーバのハードウェア構成
 仮想化サーバ200は、図1に示すように、CPU210、メモリ220、インタフェース(図中I/Fと表記)230及びユーザインタフェース(図中UIと表記)240などから構成される。仮想化サーバ200は、実際には、管理サーバ100により管理され、ハイパーバイザ221が実行されることにより、仮想的なサーバ環境が構築される。
 CPU210は、演算処理装置及び制御装置として機能し、メモリ220に記憶されている各種プログラムにしたがって、仮想化サーバ200全体の動作を制御する。
 メモリ220は、CPU210が使用するプログラムや演算パラメータ等を記憶し、ROM(Read Only Memory)や、RAM(Random Access Memory)などから構成される。プログラムとして、典型的には、OS(Operating System)、及び、アプリケーションプログラムがある。アプリケーションプログラムは、後述するストレージサブシステム300から提供されるLU(Logical Unit)にアクセスする。LUは、論理的な記憶デバイスであり、論理ボリュームと称する場合もある。
 また、メモリ220には、仮想マシンの構成を管理する各種テーブル(仮想マシン管理テーブル(図中VM管理テーブルと表記)222、データストア管理テーブル223及びストレージポリシ管理テーブル224)が格納されている。各管理テーブルについては後で詳細に説明する。
 インタフェース230及びユーザインタフェース240は、上記した管理サーバ100のインタフェース130及びユーザインタフェース140と同様のため、詳細な説明は省略する。
(1-3-3)ストレージサブシステムのハードウェア構成
 ストレージサブシステム300は、ネットワークを介して接続された複数のディスク制御装置310から構成されている。
 ディスク制御装置310は、例えば、RAID(Redundant Array of Inexpensive Disks)制御を利用して複数の物理記憶媒体にデータを記憶させることを制御するコントローラ(以下、内部コントローラ)320を含んだ装置(例えば、ディスクアレイ装置)である。物理記憶媒体は、例えば、ディスク型の記憶媒体(例えば、HDD(Hard Disk Drive))である。以下では、ディスク制御装置を「DKC」(Disk Control Apparatus)と称して説明する場合もある。
 また、ディスク型記憶媒体は、例えば、FC(Fibre Channel)、SAS(Serial Attached SCSI)、ATA(Advanced Technology Attachment)、SATA(Serial ATA)等のドライブが例示できる。また、物理記憶媒体は、ディスク型記憶媒体に代えて、他種の物理記憶媒体、例えば、SSD(Solid State Drive)、半導体メモリ格納装置/ボード等でもよい。
 また、各ディスク制御装置310は、図1に示すように、CPU321、メモリ322、インタフェース(図中I/Fと表記)323及びキャッシュ324なども含む。CPU321は、演算処理装置及び制御装置として機能し、メモリ322に記憶されている各種プログラムにしたがって、ディスク制御装置310全体の動作を制御する。
 メモリ322は、CPU321が使用するプログラムや演算パラメータ等を記憶し、ROM(Read Only Memory)や、RAM(Random Access Memory)などから構成される。メモリ322には、図2に示すように、各種管理プログラム及び管理テーブルが格納されている。具体的に、各種ボリュームやディスクを管理する仮想ボリューム(図中VVOLと表記)管理プログラム360及び仮想ボリューム管理テーブル361、ディスク制御装置310が管理する論理ボリュームである、GDEVを管理するGDEV管理プログラム370及びGDEV管理テーブル371、LDEV管理プログラム380及びLDEV管理テーブル381などが格納されている。また、第2の実施の形態で説明するリモートコピーを管理するリモートコピー管理プログラム350及びリモートコピー管理テーブル351が格納されている。
 図1に戻り、キャッシュ324は、ディスク330に書き込まれるデータ、及び、ディスク330から読み出されたデータを一時的に記憶する。少なくとも1つのキャッシュ324は、キャッシュメモリとして使用される記憶領域(CM領域)に加えて、複数のコントローラモジュールの共有メモリ(SM)として使用される記憶領域(SM領域)を有してもよい。
(1-4)仮想化サーバとストレージサブシステムとのボリューム連携
 次に、図3を参照して、仮想化サーバ200上の仮想マシン(VM)250に対応する仮想ボリュームとストレージサブシステム300のディスク制御装置310が提供する物理ボリュームとの連携について説明する。
 図3に示すように、仮想化サーバ200上に構築される仮想マシン(VM1、VM2、VM3)250は1つまたは複数の仮想ディスク(VMDK1、VMDK2、VMDK3、VMDK4)251を含む。また、データストア(データストア1、データストア2、データストア3)260は、仮想ディスク251を構築するための仮想的なボリュームである。各仮想マシン250を構築する際に、予め作成されたデータストア260のうち、いずれのデータストア260を利用してどれくらいの容量の仮想ディスク(VMDK)を作成するかが決定される。
 また、ストレージサブシステム300のディスク制御装置310では、論理的な記憶デバイスである論理ボリューム(以降、当該論理ボリュームをLDEVと称して説明する。)に対応して、ストレージサブシステム300全体を通した通し番号が設定された論理ボリューム(以降、当該論理ボリュームをGDEVと称して説明する。)が構築される。これにより、複数のディスク制御装置310で管理されている複数のLDEVを、複数のディスク制御装置310間で利用することが可能となり、複数の筐体で構成されたディスク制御装置310をあたかも1つの筐体からなるディスク制御装置310として扱い、個々のディスク制御装置310で管理されている複数のLDEVを、仮想的な1つのディスク制御装置に管理されるGDEVとして扱うことができる。
 上記した特許文献1では、データストア260とGDEV1とを1対1で対応させておく必要があった。例えば、1つのGDEVを2つのデータストアに対応させて、1つのデータストアに格納されたデータのみ他のデータストアに移動させたい場合が考えられるが、この場合、データの移動はLDEV単位、すなわちGDEV単位で行われるため、1つのデータストアのデータのみを移動させることができないためである。
 しかし、データストア260とGDEV1とを1対1で対応させた場合、リモートコピー時には、1つのGDEVを処理するのは1つのディスク制御装置310のコントローラのみであり、複数のディスク制御装置310のコントローラを並列で処理させることができるにも関わらず、複数のディスク制御装置310にまたがってリモートコピー等の処理を行うことができないという問題があった。
 そこで、本実施の形態では、ディスク制御装置310側で仮想ボリューム(VVol:Virtual Volume)を生成し、仮想ボリュームに1または複数のGDEVをマッピングする。例えば、図1に示すように、ディスク制御装置DKC1により生成された仮想ボリュームVVol1にGDEV1、GDEV2及びGDEV5をマッピングし、ディスク制御装置DKC2により生成された仮想ボリュームVVol2にGDEV2をマッピングし、ディスク制御装置DKC3により生成された仮想ボリュームVVol3にGDEV4及びGDEV6をマッピングする。
 実際には、GDEV1及びGDEV2はディスク制御装置DKC1が管理し、GDEV3及びGDEV4はディスク制御装置DKC2が管理し、GDEV5及びGDEV6はディスク制御装置DKC3が管理し、各論理ボリュームを管理するディスク制御装置310がそれぞれデータの書き込みや読み取りを行う。したがって、仮想ボリュームVVol1のリモートコピー等を行う場合には、VVol1にマッピングされているGDEV1、GDEV3及びGDEV5を、DKC1、DKC2及びDKC3のコントローラで並列に処理することが可能となる。ディザスタリカバリ構築時のリモートコピーについては、第2の実施の形態で詳細に説明する。
 また、仮想ボリュームVVolを複数のGDEVでマッピングすることにより、ストレージサブシステム300の外からは仮想ボリュームVVolのみしか見えないため、アクセス頻度の高いGDEVを他のGDEVと入れ替えたい場合でも、仮想マシン250の仮想ディスク251に対応付けられたデータストア260とのマッピングを変更することなく、データのマイグレーションを行うことが可能となる。アクセス頻度に応じたマイグレーションについては第3の実施の形態で詳細に説明する。
 また、本実施の形態では、上記したように、仮想マシン250の構築時に、デバイスタイプやディスクの容量、性能などのストレージポリシを適用することにより、仮想マシン250上の仮想ボリューム(データストア260)とストレージシステムが提供する論理ボリューム(GDEV)500とのマッピングを自動化している。
 具体的に、デバイスタイプやディスクの容量、性能などを含むストレージのポリシを定義し、当該ポリシごとに仮想ボリューム(VVol)ネットワーク40と論理ボリューム(GDEV)500との関係を予め構築し、仮想マシン250を構築する際に、ユーザによりストレージのポリシが選択されると、選択されたポリシに対応する仮想ボリューム(VVol)ネットワーク40をデータストア260にマッピングすることができる。これにより、仮想化サーバ200を管理する管理者は、所望のストレージ環境に適したポリシを選択するだけで、仮想マシン250を構築するためのストレージシステム側の設定を容易に行うことが可能となる。
(1-5)各種テーブル
 次に、仮想マシン250の仮想ボリューム(データストア260)とディスク制御装置310の論理ボリューム(GDEV500、LDEV500)とを連携させるための管理テーブルについて説明する。
 図4を参照して、仮想化サーバ200上に構築される仮想マシンを管理する仮想マシン管理テーブル222について説明する。仮想マシン管理テーブル222は、仮想化サーバ200のハイパーバイザ221により管理されるテーブルである。図4に示すように、仮想マシン管理テーブル222は、VM名欄2220、仮想ディスク欄2221、容量欄2222、データストア名欄2223及びデバイスタイプ欄2224から構成される。
 VM名欄2220には、仮想マシン250の名称が格納される。仮想ディスク欄2221には、仮想マシン250を構成する仮想ディスク(VMDK)251の名称が格納される。容量欄2222には、仮想ディスク251の容量を示す情報が格納される。データストア名欄2223には、仮想ディスク251を構築するデータストアの名称が格納される。デバイスタイプ欄2224には、データストアのデバイスタイプを示す情報が格納される。
 図4では、例えば、仮想マシンVM3は仮想ディスクVMDK3及びVMDK4から構成され、VMDK3及びVMDK4の容量は100、VMDK3及びVMDK4を構築するデータストア260はデータストア3、デバイスタイプはSATAであることがわかる。
 次に、図5を参照して、仮想ディスク251を構築するデータストア260を管理するデータストア管理テーブル223について説明する。データストア管理テーブル223は、仮想化サーバ200のハイパーバイザ221により管理されるテーブルである。図5に示すように、データストア管理テーブル223は、データストア名欄2230、容量欄2231、装置名欄2232、ボリューム欄2233、データストアタイプ欄2234及びデバイスタイプ欄2235から構成される。
 データストア名欄2230には、データストア260の名称が格納される。データストア容量欄2231には、データストア260の容量を示す情報が格納される。装置名欄2232には、データストア260を提供するストレージ装置の名称が格納される。ボリューム欄2233には、データストア260に対応付けられる仮想ボリューム(VVol)ネットワーク40の名称が格納される。データストアタイプ欄2234には、データストアのタイプを示す情報が格納される。デバイスタイプ欄2235には、データストア260のデバイスタイプを示す情報が格納される。
 図5では、例えば、データストア1は、容量が300GBであり、当該容量はストレージ1から提供され、仮想ボリュームVVol1に対応付けられ、データストアタイプはVVOL、デバイスタイプはSASであることがわかる。
 次に、図6を参照して、仮想ボリュームVVol ネットワーク40を管理する仮想ボリューム管理テーブル361について説明する。仮想ボリューム管理テーブル361は、各ディスク制御装置310により管理されるテーブルである。図6に示すように、仮想ボリューム管理テーブル361は、VVOL#欄3610、VVOL容量欄3611、GDEV容量欄3612、構成GDEV#欄3613、構成DKC#欄3614、デバイスタイプ欄3615及びIOPS欄3616から構成される。
 VVOL#欄3610には、仮想ボリュームネットワーク40を識別する情報が格納される。VVOL容量欄3611には、仮想ボリュームネットワーク40の容量を示す情報が格納される。GDEV容量欄3612には、仮想ボリュームネットワーク40にマッピングされるGDEV500の名称が格納される。構成DKC#欄3614には、仮想ボリュームネットワーク40にマッピングされたGDEV500を管理するディスク制御装置310を識別する情報が格納される。デバイスタイプ欄3615には、仮想ボリュームネットワーク40にマッピングされたGDEVのデバイスタイプを示す情報が格納される。IOPS欄3616には、仮想ボリュームネットワーク40にマッピングされたGDEVのIOPS(Input Output Per Second)を示す情報が格納される。
 例えば、図6では、仮想ボリュームVVol1の容量は300GBであり、VVolにマッピングされたGDEV500はGDEV1、GDEV3及びGDEV5でGDEV500の総容量は100GB、GDEV500を管理するディスク制御装置310は、DKC1、DKC2及びDKC3、デバイスタイプはSAS、IOPSは600であることがわかる。
 次に、図7を参照して、ディスク制御装置310が管理するGDEV500の構成を管理するGDEV管理テーブル371について説明する。GDEV管理テーブル371は、各ディスク制御装置310により管理されるテーブルである。図7に示すように、GDEV管理テーブル371は、GDEV#欄3710、サイト#欄3711、DKC ID欄3712、LDEV#欄3713、容量欄3714及びデバイスタイプ3715から構成される。
 GDEV#欄3710には、GDEV500を識別する情報が格納される。サイト#欄3711には、GDEV500が存在するサイトを識別する情報が格納される。ここで、サイトとは、ディザスタリカバリを構築する際のローカルサイトまたはリモートサイトを意味する。例えば、ローカルサイトのサイト名はサイト1、リモートサイトのサイト名はサイト2のように設定される。DKC#欄3712には、GDEV500を管理するディスク制御装置310を識別する情報が格納される。LDEV#欄3713には、GDEV500に対応するLDEV600を識別する情報が格納される。容量欄3714には、GDEV500の容量を示す情報が格納される。デバイスタイプ3715には、GDEV500のデバイスタイプを示す情報が格納される。
 図7では、例えば、GDEV1は、サイト1に存在し、DKC1に管理され、LDEV1に対応付けられ、容量は100GB、デバイスタイプはSASであることがわかる。上記したように、GDEV500は、ストレージサブシステム300全体を通した通し番号が設定された論理ボリュームであり、本実施の形態では、LDEV600と1対1で対応付けられている。
 次に、図8を参照して、ディスク制御装置310が管理するLDEV600の構成を管理するLDEV管理テーブル381について説明する。LDEV管理テーブル381は、各ディスク制御装置310により管理されるテーブルである。図8に示すように、LDEV管理テーブル381は、LDEV#欄3810、容量欄3811及びデバイスタイプ欄3812から構成される。
 LDEV#欄3810には、LDEV600を識別する情報が格納される。容量欄3811には、LDEV600の容量を示す情報が格納される。デバイスタイプ欄3812には、LDEV600のデバイスタイプを示す情報が格納される。
 図8では、例えば、LDEV1の容量は100GBであり、デバイスタイプはSASであることがわかる。
 次に、図9を参照して、仮想マシン250を構築する際のストレージポリシを管理するストレージポリシ管理テーブル224について説明する。ストレージポリシ管理テーブル224は、仮想化サーバ200のハイパーバイザ221により管理されるテーブルであり、システム管理者等により予め設定される。図9に示すように、ストレージポリシ管理テーブル224は、ストレージポリシ名欄2240、デバイスタイプ欄2241、容量欄2242、下限IOPS欄2243、上限IOPS2244、リモートコピータイプ欄2245及びリモートサイト#欄2246などから構成される。
 ストレージポリシ名欄2240には、ストレージポリシの名称を示す情報が格納される。デバイスタイプ欄2241には、ストレージポリシに設定するデバイスタイプを示す情報が格納される。容量欄2242には、ストレージポリシに設定する容量を示す情報が格納される。下限IOPS欄2243及び上限IOPS2244には、ストレージポリシに設定するIOPSの下限及び上限を示す情報が格納される。リモートコピータイプ欄2245には、ストレージポリシに設定するリモートコピーのタイプが格納される。リモートサイト#欄2246には、ストレージポリシに設定するリモートサイトを識別する情報が格納される。
 図9では、例えば、ストレージポリシAは、デバイスタイプがSAS、容量が300GB、IOPSの下限200、上限1000、リモートコピータイプは高速DR、リモートサイトは2のサイトであることがわかる。リモートコピータイプについては、第2の実施の形態で詳細に説明する。
 本実施の形態では、システム管理者等の入力に応じて、図9に示すストレージポリシを予め設定して、当該ストレージポリシごとに仮想ボリューム(VVol)ネットワーク40と論理ボリューム(GDEV)500との関係を予め構築し、仮想マシン250を構築する際に、予め設定されたストレージポリシを選択するだけで、仮想マシン250を構築するためのストレージシステム側の設定を行うことを可能としている。
(1-6)ストレージポリシを利用した仮想マシン作成処理
 次に、図10及び図11を参照して、管理サーバ100の仮想マシン管理ソフト122により実行されるストレージポリシを利用した仮想マシン作成処理について説明する。
 図10に示すように、仮想マシン管理ソフト122は、システム管理者の入力に応じてストレージポリシを作成する(S101)。ステップS101において、仮想マシン管理ソフト122は、システム管理者により管理サーバ100の入力インタフェースなどを介して入力されたストレージポリシ名に対応するデバイスタイプ、容量IOPSの上限、下限等の情報を、ストレージポリシ管理テーブル224に設定する。
 そして、仮想マシン管理ソフト122は、仮想マシン250の構築を開始する(S102)。ステップS102において、仮想マシン管理ソフト122は、仮想マシン250作成プログラムを実行させることにより、仮想マシン250の構築を開始する。
 そして、仮想マシン管理ソフト122は、仮想マシン250に配備する仮想ディスク251がストレージポリシ方式か、すなわち、ストレージポリシを利用して仮想マシン250に仮想ディスク251を配備するかを判定する(S103)。ステップS103において、仮想マシン管理ソフト122は、システム管理者によりストレージポリシを利用した仮想マシン250の構築指示があったかを判定することにより判断する。
 ステップS103において、仮想マシン250に配備する仮想ディスク251がストレージポリシ方式であると判定された場合には、仮想マシン管理ソフト122は、ストレージポリシに合致するデータストア260を抽出する(S104)。ステップS104のデータストア抽出処理を、図11を参照して説明する。
 図11に示すように、仮想マシン管理ソフト122は、VVOL管理ソフト123及びストレージ管理ソフト124から、仮想ボリュームネットワーク40のボリューム情報を取得する(S121)。具体的に、仮想マシン管理ソフト122は、データストア260に対応付けられている、複数のディスク制御装置310で管理されている複数の仮想ボリュームネットワーク40のデバイスタイプ、IOPS及び容量などの情報を取得する。
 そして、仮想マシン管理ソフト122は、ステップS101で作成されたストレージポリシに設定されているデバイスタイプとステップS121で取得したデバイスタイプとを比較して、ストレージポリシに合致するデータストア260があるかを判定する(S122)。
 続いて、仮想マシン管理ソフト122は、ステップS101で作成されたストレージポリシに設定されているIOPSの情報とステップS121で取得したIOPSの情報とを比較して、ストレージポリシに合致するデータストア260があるかを判定する(S123)。
 続いて、仮想マシン管理ソフト122は、ステップS101で作成されたストレージポリシに設定されている容量の情報とステップS121で取得した容量の情報とを比較して、ストレージポリシに合致するデータストア260があるかを判定する(S124)。
 そして、仮想マシン管理ソフト122は、ステップS122~ステップS124におけるすべての判定を満たすデータストア260を抽出する(S125)。
 図10に戻り、仮想マシン管理ソフト122は、ステップS104において抽出されたデータストアの一覧を管理サーバ100の表示画面に表示させる(S106)。具体的に、仮想マシン管理ソフト122は、図11のステップS122~ステップS124における判定の結果、ストレージポリシに合致すると判定されたデータストアの一覧を管理サーバ100の表示画面に表示させる。
 一方、ステップS103において、仮想マシン250に配備する仮想ディスク251がストレージポリシ方式ではないと判定された場合には、仮想マシン管理ソフト122は、すべてのデータストア260の一覧を管理サーバ100の表示画面に表示させる(S105)。
 そして、仮想マシン管理ソフト122は、システム管理者の入力に応じて選択されたデータストアを選択して(S107)、仮想ディスク251を設定する(S108)。ステップS108において、仮想マシン管理ソフト122は、仮想ディスク251とデータストア260の対応付けを行う。
 そして、仮想マシン管理ソフト122は、仮想ディスク251の設定以外に仮想マシン250の設定を行う(S109)。ステップS109において、仮想マシン管理ソフト122は、例えば、仮想マシン250を利用するユーザの設定や、セキュリティの設定などを行う。
(1-7)本実施の形態の効果
 本実施の形態によれば、複数のディスク制御装置310が、予め設定されたストレージポリシに適合する1または複数の論理ボリューム(GDEV500)を仮想ボリューム(VVOLネットワーク40)にマッピングし、管理サーバ100は、システム管理者等の入力によりいずれかのストレージポリシが選択された場合に、該ストレージポリシに設定された条件を満たす仮想ボリューム(VVOLネットワーク40)を仮想マシン250に対応付けて仮想マシン250を構築する。これにより、仮想マシン250の構築時に、デバイスタイプやディスクの容量、性能などのストレージポリシを適用して、仮想マシン250に対応する仮想ボリュームとストレージシステムが提供するボリュームとのマッピングを自動化して、ストレージシステムの環境構築を容易化し、システム全体の管理を容易化している。
(2)第2の実施の形態
(2-1)本実施の形態の概要
 本実施の形態では、第1の実施の形態において構築された仮想化環境を利用して、DR(ディザスタリカバリ)環境の構築を容易化するとともに、リモートコピーを高速化することを目的としている。
 本実施の形態では、上記したストレージポリシを、DR環境構築時にも利用している。すなわち、ローカルサイトとリモートサイトの間でリモートコピーを行うDR環境において、ローカルサイト及びリモートサイトのいずれにおいても、第1の実施の形態と同様に、ディスク制御装置310側で仮想ボリュームを生成、仮想ボリュームに1または複数のGDEVをマッピングする。
 そして、ローカルサイトの仮想マシンを構築する際に、第1の実施の形態と同様に、システム管理者等により設定されたストレージポリシを適用して、仮想マシン250上の仮想ボリューム(データストア260)とストレージシステムが提供する論理ボリューム(GDEV)500とをマッピングする。そして、リモートサイトの仮想マシンを構築する際には、GDEV500の構成をローカルサイトと同様の構成とすることにより、リモートサイト側でのデータストア260とGDEV500とのマッピングを自動化することができる。
 さらに、本実施の形態では、第1の実施の形態と同様に、ディスク制御装置310が提供する論理ボリューム(GDEV500)と仮想マシンに対応する仮想ボリューム(VVolネットワーク40)とを連携させて、複数のディスク制御装置310のコントローラ間にまたがって仮想ボリュームネットワーク40を作成する。これにより、複数のコントローラを利用して仮想ボリュームネットワーク40のリモートコピーを実行して、リモートコピーを高速化することが可能となる。
(2-2)計算機システムの構成
 本実施の形態にかかる計算機システムは、図12に示すように、管理サーバ100A、仮想化サーバ200A及びディスク制御装置310Aから構成されるローカルサイトと、管理サーバ100B、仮想化サーバ200B及ディスク制御装置310Bから構成されるリモートサイトとから構成される。ローカルサイトのディスク制御装置310Aとリモートサイトのディスク制御装置310Bとは、ネットワークを介して接続され、リモートコピー機能によりローカルサイトのディスク制御装置310Aに格納されたデータがリモートサイトのディスク制御装置310Bにバックアップされる。このように、ローカルサイトのデータがリモートコピー機能によりリモートサイトにバックアップされる環境をDR(ディザスタリカバリ)環境と称して説明する場合もある。また、管理サーバ100A及び100Bは、複数のディスク制御装置310A及び310Bに存在するボリュームに通し番号を付与して、管理サーバ100Aにおいてリモートコピー先の仮想ボリュームの設定等を行うことを可能としている。
 ローカルサイトを構成する管理サーバ100A、仮想化サーバ200A及びストレージサブシステム300Aのディスク制御装置310A及び、リモートサイトを構成する管理サーバ100B、仮想化サーバ200B及びストレージサブシステム300Bのディスク制御装置310Bのハードウェア構成は、第1の実施の形態の管理サーバ100、仮想化サーバ200及びストレージサブシステム300のディスク制御装置310と同様のため詳細な説明は省略する。
(2-3)仮想化サーバとストレージサブシステムとのボリューム連携
 仮想化サーバ200上の仮想マシン(VM)250に対応する仮想ボリュームとストレージサブシステム300のディスク制御装置310が提供する物理ボリュームとの連携も、第1の実施の形態と同様である。以下では、本実施の形態におけるDR環境の構成構築時のボリューム連携について特に詳細に説明する。また、各装置の各種テーブルも第1の実施の形態と同様のため、説明は省略する。
 図13を参照して、リモートコピー先のボリューム作成時の管理サーバ100の各管理ソフトと仮想化サーバ200またはストレージサブシステム300との連携について説明する。管理サーバ100の仮想マシン管理ソフト122は、ローカルサイトの仮想マシン250構築時に適用されたストレージポリシをもとに、リモートコピー先のボリュームの作成及びリモートコピーの設定を自動的に行う。
 具体的に、仮想マシン管理ソフト122は、システム管理者の入力等に応じて作成されたストレージポリシをもとに、ハイパーバイザ221を実行して、ローカルサイト側の仮想マシン250を構築する。そして、仮想マシン管理ソフト122は、VVOL管理ソフト123及びストレージ管理ソフト124からリモートコピー元のボリューム情報を取得する。そして、仮想マシン管理ソフト122は、VVOL管理ソフト123にリモートコピー先のボリュームの作成を指示する。
 リモートコピー先のボリューム作成を指示されたVVOL管理ソフト123は、ストレージ管理ソフト124からストレージサブシステム300のGDEV500の情報を取得する。ストレージ管理ソフト124は、定期的または所定の契機でディスク制御装置310のリモートコピー管理プログラム350またはGDEV管理プログラム370からストレージサブシステム300上のGDEV500の情報を取得する。
 そして、VVOL管理ソフト123は、リモートコピー元のボリュームと同一のGDEV構成となるように、リモートコピー先のボリュームのVVOLネットワーク40を設定する。VVOL管理ソフト123は、VVOLネットワーク40の設定内容をディスク制御装置310のVVOL管理プログラム360に通知する。
 上記によりボリュームのVVolネットワーク40にマッピングするGDEV500の構成が決定されると、仮想マシン管理ソフト122は、DR管理ソフト121に対して、DR構成の設定を指示する。DR構成の設定を指示されたDR管理ソフト121は、ストレージ管理ソフトにリモートコピー元ボリュームとリモートコピー先ボリュームのペアリング設定を指示する。そして、ストレージ管理ソフト124は、リモートコピー元ボリュームとリモートコピー先ボリュームとの間におけるリモートコピー設定を実施する。
 例えば、VVOLネットワーク40を構成するGDEV500の数を、ローカルサイトまたはリモートサイトのディスク制御装置310の数と一致させる。これにより、リモートコピーを行う際に、ディスク制御装置310の数分だけ並列処理することが可能となり、リモートコピーの初期コピー時や、障害復旧時のリカバリコピー時など、大量のデータをコピーする際にコピー処理の高速化の効果が大きくなる。
(2-4)ストレージポリシを利用したDR環境作成処理
 次に図14~図17を参照して、ストレージポリシを利用したDR環境の作成処理の詳細について説明する。図14は、ストレージポリシを利用した仮想マシン作成処理を示すフローチャートである。図14のステップS101~ステップS109は、第1の実施形態の図10と同様のため詳細な説明を省略する。
 なお、ステップS101~ステップS109の処理のうち、ステップS104におけるデータストア抽出処理については第1の実施の形態の処理に追加される処理が実行されるため、図15を参照して詳細に説明する。図15のステップS121~ステップS125の処理は第1の実施の形態の図11と同様のため詳細な説明を省略する。
 図15に示すように、仮想マシン管理ソフト122は、ステップS122~ステップS124でストレージポリシに設定されているボリューム情報とステップS121で取得したボリューム情報とを比較した後、リモートコピータイプが高速DRかを判定する(S126)。仮想マシン管理ソフト122は、図9に示すストレージポリシ管理テーブル224のリモートコピータイプを参照して、リモートコピータイプが高速DRか否かを判定する。
 ここで、リモートコピータイプについて説明する。リモートコピータイプには、リモートコピーを高速、中速または低速で行うかを示す情報(高速DR、中速DR、低速DR)が設定される。また、リモートコピーをする必要がない場合、すなわち、DR環境を構築する必要がない場合には、DR環境の構築が不要であることを示す情報(NONE)が設定される。高速DR(ディザスタリカバリ)とは、高速にリモートコピーをする必要があることを意味する。例えば、高速にリモートコピーをする必要があるデータとして、金融システムのオンラインデータなど、緊急に障害復旧をする必要があるものが挙げられる。リモートコピータイプとして高速DRが設定された場合には、リモートサイトの仮想ボリューム(VVOL)ネットワーク40にマッピングする論理ボリューム(GDEV)500の構成を、ローカルサイトと同様の構成とすることにより、リモートコピーを高速に行うことができる。
 また、中速DRは、緊急性は要するが、低コスト化等のため、リモートサイトのディスク330の数がローカルサイトのディスク330の数より少ない場合などに設定される。リモートコピータイプとして中速DRが設定された場合には、リモートサイトの仮想ボリューム(VVOL)ネットワーク40にマッピングする論理ボリューム(GDEV)500のデバイスタイプは同一とするが、VVOLネットワーク40にマッピングするGDEVの数をリモートサイトの数より少ない数にするなどが考えられる。
 また、低速DRは、アーカイブ用のデータなどの障害復旧に緊急性を要しない場合や、低コスト化のためリモートサイトは安価なデバイス(SATA)などにしている場合などに設定される。リモートコピータイプとして低速DRが設定された場合には、リモートサイトの仮想ボリューム(VVOL)ネットワーク40にSATAなどの安価なディスク330がマッピングされる。
 ステップS126において、リモートコピータイプが高速DRであると判定された場合には、仮想マシン管理ソフト122は、ストレージポリシに設定されているデバイスタイプに合致するリモートコピー先のデータストア260があるかを判定する(S127)。
 続いて、仮想マシン管理ソフト122は、ストレージポリシに設定されているIOPSに合致するリモートコピー先のデータストア260があるかを判定する(S128)。
 続いて、仮想マシン管理ソフト122は、ストレージポリシに設定されている容量に合致するリモートコピー先のデータストア260があるかを判定する(S129)。
 そして、仮想マシン管理ソフト122は、ローカルサイトで抽出されたデータストア260のうち、リモートコピー先においても、VVOLネットワーク40の容量、GDEV500の容量、ディスク制御装置310の数がローカルサイトと同一のものが作成できるデータストア260を抽出する(S130)。
 ステップS126において、リモートコピータイプが高速DRではないと判定された場合には、ステップS122~ステップS124におけるすべての判定を満たすデータストア260を抽出する(S125)。
 図14に戻り、ステップS101~ステップS109の処理で仮想マシン250の設定が行われた後、仮想マシン管理ソフト122は、ストレージポリシに設定されたリモートコピータイプがNONEかを判定する(S110)。リモートコピータイプがNONEとは、上記したように、DR環境を構築する必要がないことを示す。
 ステップS110においてリモートコピータイプがNONEであると判定された場合には、仮想マシン管理ソフト122は、処理を終了する。
 一方、ステップS110において、リモートコピータイプがNONEではない、つまり、DR環境を構築する設定であると判定された場合には、仮想マシン管理ソフト122は、リモートコピー先にVVOlネットワーク40を作成する(S111)。
 図16を参照して、リモートコピー先のVVOLネットワーク40の作成処理の詳細を説明する。図16に示すように、仮想マシン管理ソフト122は、VVOL管理ソフト12及びストレージ管理ソフト124から、リモートコピー元の仮想ボリュームネットワーク40のボリューム情報を取得する(S131)。
 仮想マシン管理ソフト122は、ステップS131で取得したボリューム情報に含まれるリモートコピータイプが高速DRか、中速DRか、低速DRかを判定する(S132)。
 ステップS132において、リモートコピータイプが高速DRであると判定された場合には、仮想マシン管理ソフト122は、リモートサイトのGDEV500のうち、ローカルサイトのGDEV500の容量と同一容量で、かつ、デバイスタイプが同じGDEV500を抽出する(S133)。
 そして、仮想マシン管理ソフト122は、ステップS133で抽出したGDEV500のうち、リモートコピー元のVVOLネットワーク40と同一のGDEV500の数分、異なるストレージ制御装置(DKC)310から順に1つずつGDEV500を選択する(S136)。
 ステップS132において、リモートコピータイプが中速DRであると判定された場合には、仮想マシン管理ソフト122は、リモートサイトのGDEV500のうち、ローカルサイトのVVOLネットワーク40の容量と同一容量で、かつ、デバイスタイプが同じGDEV500を抽出する(S134)。上記したように、リモートコピータイプが中速DRの場合には、低コスト化等のため、リモートサイトのディスク330の数がローカルサイトのディスク330の数より少ない場合などに設定される。したがって、ローカルサイトのVVOLネットワーク40の容量とデバイスタイプとが同じであれば、リモートコピータイプが高速DRの場合のように、VVOLネットワーク40にマッピングするGDEV500の数やディスク制御装置310の数までは要求されない。
 ステップS132において、リモートコピータイプが低速DRであると判定された場合には、仮想マシン管理ソフト122は、リモートサイトのGDEV500のうち、ローカルサイトのVVOLネットワーク40の容量と同一容量で、かつ、デバイスタイプがSATAであるGDEV500を抽出する(S135)。
 そして、仮想マシン管理ソフト122は、VVOL管理ソフト123にステップS133、ステップS134、またはステップS135で選択したGDEV500でVVOLネットワーク40を作成させる(S137)。具体的に、VVOL管理ソフト123は、仮想ボリューム管理テーブル361にVVOLネットワーク40とGDEV500の対応付けの情報を格納する。
 図14に戻り、仮想マシン管理ソフト122は、リモートサイト側の仮想マシン管理ソフト122に、ステップS111においてリモートコピー先のVVOLネットワーク40を作成した後、リモートコピー先のデータストア260を使って、ローカルサイトと同一の設定の仮想マシン250を作成するよう指示する(S112)。
 そして、仮想マシン管理ソフト122は、リモートコピーの設定を行う(S113)。ここで、図17を参照して、ステップS113におけるリモートコピー設定処理の詳細について説明する。
 図17に示すように、仮想マシン管理ソフト122は、DR管理ソフト121に、ローカルサイト及びリモートサイトで作成した仮想マシン250に関してDR設定をするよう指示する(S141)。
 ステップS141において、DR設定を指示されたDR管理ソフト121は、指定されたリモートサイト及びローカルサイトの仮想マシン250について、対応付け等のDR設定を行う(S142)。
 続いて、DR管理ソフト121は、ストレージ管理ソフト124に、ローカルサイト及びリモートサイトの仮想ボリュームネットワーク40に関してリモートコピー設定をするよう指示する(S143)。
 ステップS143において、リモートコピー設定を指示されたストレージ管理ソフト124は、指定されたローカルサイト及びリモートサイトについて、両サイトの仮想ボリュームネットワーク40の対応付け等のリモートコピー設定を行う(S144)。
 以上の処理により、ストレージポリシを利用したDR環境の作成、すなわち、リモートコピーの設定が自動的に行われる。リモートコピーの設定が行われた後、管理者の入力に応じて、DR環境の詳細設定が行われる。DR環境の詳細設定としては、障害発生時のリカバリプランの作成や、保護グループの作成などが挙げられる。
(2-5)リモートコピー処理の詳細
 次に、図18を参照して、DR管理ソフト121により実行されるリモートコピー処理の詳細について説明する。VVOLネットワーク40は、ホストからは単一のボリュームに見えているため、VVOLネットワーク40が実際には複数のGDEV500から構成されていることはわからない。そこで、管理サーバ100のDR管理ソフト121、VVOL管理ソフト123及びストレージ管理ソフト124と、ストレージサブシステム300とが連携して、ストレージ管理ソフト124の指示のもと、VVOLネットワーク40が複数のGDEV500で構成されていることを意識したリモートコピー指示をストレージサブシステム300の各ディスク制御装置310に対して行うことで、リモートコピーを高速化することができる。
 図18に示すように、まず、DR管理ソフト121が、仮想マシン管理ソフト122にリモートコピー元の仮想マシン250のスナップショットの作成指示する(S201)。
 ステップS201でスナップショットの作成を指示された仮想マシン管理ソフト122は、指定された仮想マシン250のスナップショットを作成する(S202)。
 そして、DR管理ソフト121が、ストレージ管理ソフト124にリモートコピー元のVVOLネットワーク40とリモートコピー先のVVOLネットワーク40とのデータの再同期を指示する(S203)。
 ストレージ管理ソフト124は、ステップS203で指定されたリモートコピー元のVVOLネットワーク40及びリモートコピー先のVVOLネットワーク40のボリューム情報を取得する(S204)。
 そして、ストレージ管理ソフト124は、ステップS204で取得したボリューム情報をもとに、指定されたリモートコピー元のVVOLネットワーク40及びリモートコピー先のVVOLネットワーク40は、いずれも複数GDEV500で構成されており、かつ、同一数のGDEV500かを判定する(S205)。
 ステップS205で、指定されたVVOLネットワーク40のいずれも複数GDEV500で構成されており、かつ、同一数のGDEV500であると判定された場合には、リモートコピー元とリモートコピー先との間で対応するGDEV500間でリモートコピーを実施する(S206)。一方、ステップS205で、指定されたVVOLネットワーク40のいずれかが複数GDEV500ではなく、かつ、同一数のGDEV500ではない場合には、リモートコピー元とリモートコピー先との間で対応するVVOLネットワーク40間でリモートコピーを実施する(S207)。
 上記したステップS206において、対応するGDEV500間でリモートコピーが実施されると、GDEV500を管理する複数のディスク制御装置310でコピー処理を並列に実施することができるため、リモートコピーを高速化することができる。一方、ステップS207では、VVOLネットワーク40間でリモートコピーを実施するため、単一のコピー処理を実施することとなる。
 そして、リモートコピーが完了すると、ストレージ管理ソフト124が、DR管理ソフト121にリモートコピーが完了したことを通知する(S208)。
 続いて、DR管理ソフト121は、仮想マシン管理ソフト122にステップS202で作成したスナップショットの削除を指示する(S209)。ステップS209でスナップショットの削除を指示された仮想マシン管理ソフト122は、指定された仮想マシン250のスナップショットを削除する(S210)。
 なお、上記したストレージポリシを利用した仮想マシンの構築において、管理サーバ100の仮想マシン管理ソフト122は、ストレージポリシとして、高速DR、中速DRまたは低速DRのような概念的な設定を行い、具体的にどのようなVVOLネットワーク40を構成するかについては、ストレージサブシステム300内のVVOL管理プログラム360により設定される。
 例えば、上記したように、リモートコピーを高速に行うために、リモートサイトの仮想ボリューム(VVOL)ネットワーク40にマッピングする論理ボリューム(GDEV)500の構成を、ローカルサイトと同様の構成とする場合が挙げられる。また、低コスト化のために、リモートサイトのディスク330の数がローカルサイトのディスク330の数より少ない場合に、リモートサイトの仮想ボリューム(VVOL)ネットワーク40にマッピングする論理ボリューム(GDEV)500のデバイスタイプは同一とするが、VVOLネットワーク40にマッピングするGDEVの数をリモートサイトの数より少ない数にする場合や、リモートサイトの仮想ボリューム(VVOL)ネットワーク40にSATAなどの安価なディスク330をマッピングするなどが考えられる。
(2-6)本実施の形態の効果
 本実施の形態によれば、ストレージポリシ管理テーブル224のリモートコピー欄に、ローカルサイトとリモートサイトとの間でリモートコピーを実施することを示す情報(高速DR、中速DRまたは低速DR)が含まれている場合に、複数のディスク制御装置310は、管理サーバ100からの要求に応じて、ストレージポリシに含まれるリモートコピータイプに応じて、複数の論理ボリューム(GDEV500)のうち所定の数の論理ボリューム(GDEV500)を、ローカルサイトの仮想ボリューム(VVOLネットワーク40)及びリモートサイトの仮想ボリューム(VVOLネットワーク40)にマッピングする。これにより、DR(ディザスタリカバリ)環境の構築を容易化するとともに、リモートコピーを高速化することができる。
(3)第3の実施の形態
(3-1)本実施の形態の概要
 本実施の形態では、第1の実施の形態と同様に、ストレージポリシを予め設定して、当該ストレージポリシごとに仮想ボリューム(VVol)ネットワーク40と論理ボリューム(GDEV)500との関係を予め構築し、仮想マシン250を構築する際に、予め設定されたストレージポリシを選択して仮想マシン250を構築している。図9に示すように、ストレージポリシとして、IOPSの上限と下限を設定することができる。
 本実施の形態でも、第1の実施の形態と同様に、ストレージポリシをもとに、仮想マシン250に仮想ボリューム(VVOl)ネットワーク40が割り当てられ、VVOLネットワーク40は、複数のGDEV500から構成される。
 例えば、ストレージポリシに設定されたIOPS等を満足させるために、図9に示すストレージポリシにカスタム_Aが指定されていたとする。例えば、カスタム_Aは、仮想ボリューム(VVOL)ネットワーク40の先頭領域を管理領域として使用するOS向けに、先頭領域のみSSDで構成して高速化を図るためにシステム管理者により設定されたディスク構成であったとする。例えば、図19では、仮想化サーバ200の仮想ボリュームであるデータストア260にディスク制御装置310の仮想ボリュームであるVVOL5が対応づけられ、VVOL5は、GDEV7、GDEV8及びGDEV9から構成されている。
 ここで、仮想ボリュームの先頭領域が管理領域として使用される場合、例えば、ファイルシステムなどで管理領域が先頭にあり、先頭領域を高速化させたい場合には、VVOL5の先頭領域にSSDであるGDEV7をマッピングし、先頭領域以外の領域にSASであるGDEV8及びGDEV9をマッピングすることが考えられる。また、このように、異なるデバイスタイプを混在させてVVOLネットワーク40にマッピングする場合には、ストレージポリシのデバイスタイプ欄2241に、管理者等によりデバイスタイプが指定されることを示すカスタムAなどが設定される。
 また、ストレージサブシステム300に安価なコントローラが大量に備えられている場合には、ストレージサブシステム300のディスク制御装置310が有する小容量のGDEV500でVVOLネットワーク40を構成して、ディスク制御装置310間で負荷分散することにより、高性能な仮想ボリュームを構成することが考えられる。例えば、図20では、仮想化サーバ200の仮想ボリュームであるデータストア260にディスク制御装置310の仮想ボリュームであるVVOL6が対応づけられ、VVOL6は、10のディスク制御装置310から提供されるGDEV10~GDEV19から構成されている。
 このように、ストレージサブシステムが安価なコントローラを大量に備える場合には、複数のディスク制御装置310のGDEV500を1つのVVOLネットワーク40にマッピングすることにより、複数のディスク制御装置310でデータ処理を負荷分散して高性能な仮想ボリュームを提供することを可能としている。
 上記したように、ストレージポリシに設定されたIOPS等を満足するようにVVOLネットワーク40を設定したとしても、仮想マシン250の要求に応じてデータの書き込み等が行われると、VVOLネットワーク40にマッピングされたいずれかのGDEV500、すなわち、LDEV600に高負荷がかかり、ストレージポリシのIOPSの設定を満足できなくなってしまう場合がある。
 そこで、本実施の形態では、管理サーバ100の仮想マシン管理ソフト122が、ストレージサブシステム300と連携して性能モニタリングを行い、IOPS等の性能条件がストレージポリシに合致しなくなった場合には、VVOL管理ソフト123に通知する。そして、VVOL管理ソフト123は、ストレージポリシのIOPS等の性能条件を満たすように、VVOLネットワーク40にマッピングされたGDEV500のマッピングを変更する。
 上記したように、仮想マシン250からはVVOLネットワーク40のみしか見えていないため、ストレージシステムの負荷分散を行う際に、仮想マシン250のデータストア260とVVOLネットワーク40のマッピングを変更する必要はなく、ストレージシステム内のVVOLネットワーク40とGDEVのマッピングを変更するのみでよい。これにより、仮想マシン250を停止することなく、ストレージシステムの負荷分散を行うことが可能となる。
(3-2)計算機システムの構成
 本実施の形態にかかる計算機システムは、第1の実施の形態と同様のため、詳細な説明は省略する。また、計算機システムを構成する管理サーバ100、仮想化サーバ200及びストレージサブシステム300のハードウェア構成及びソフトウェア構成も第1の実施の形態と同様のため、詳細な説明は省略する。以下では、本実施の形態にかかる性能条件をもとに行われるVVOLネットワーク40にマッピングされたGDEV500のマッピング変更について、特に詳しく説明する。
 図21に示すように、例えば、仮想化サーバ200の仮想ボリュームであるデータストア260にディスク制御装置310の仮想ボリュームであるVVOL1が対応づけられ、VVOL1はディスク制御装置310のDKC1のGDEV1と、DKC2のGDEV3及びDKC3のGDEV5から構成されている。
 仮想マシン250の要求に応じてデータの書き込み等が行われた結果、VVOL1のIOPSがストレージポリシに設定された下限値を下回ったとする。VVOL1に対応付けられた3つの論理ボリュームのうち、GDEV1に対応付けられている論理ボリュームLDEV1が最も高負荷であったとする。この場合、図22に示すように、VVOL1にマッピングされたGDEV1に代えて、低負荷のディスク制御装置310のDKC1のGDEV20をVVOL1にマッピングして再構築する。これにより、負荷を分散させて、IOPSを要求された値とすることが可能となる。
 また、VVOL1のIOPSがストレージポリシに設定された下限値を下回った場合い、VVOL1を構成するGDEVの数を増やすことにより、負荷を分散させる方法も考えられる。この場合、既にVVOL1を構成しているGDEVを管理しているディスク制御装置(DKC)310以外のディスク制御装置310で管理されているGDEVをVVOL1にマッピングしてVVOL1を再構築する。これにより、複数のディスク制御装置310で負荷を分散させて、IOPSを要求された値とすることが可能となる。
 さらに、VVOL1のIOPSがストレージポリシに設定された上限値を上回ったとする。この場合には、VVOL1にマッピングしているGDEVの数を減らしてVVOL1を再構築してもよいし、GDEVの数は変えずに、GDEVを提供するディスク制御装置310の数を減らしてVVOL1を再構築してもよい。
 このように、仮想ボリュームVVOLを複数のGDEVでマッピングすることにより、ストレージサブシステム300の外からは仮想ボリュームVVOLのみしか見えないため、データストア260に対するマッピングを変更することなく、ストレージサブシステム300側でデータのマイグレーションを行うことが可能となる。
(3-3)負荷分散のためのVVOL再構築処理
 次に、図23を参照して、負荷分散のためのVVOLの再構築処理の詳細について説明する。図23に示すように、仮想マシン管理ソフト122は、VVOLネットワーク40の性能モニタリングを開始する(S301)。ステップS301の性能モニタリングは、周期的に実行される。
 仮想マシン管理ソフト122は、ステップS301の性能モニタリングの結果、ストレージポリシのIOPS条件を満たさないVVOLネットワーク40を検出したかを判定する(S302)。ステップS302において、ストレージポリシのIOPS条件を満たさないVVOLネットワーク40を検出しなかった場合には、処理を終了する。
 一方、ステップS302において、ストレージポリシのIOPS条件を満たさないVVOlネットワーク40を検出したと判定された場合には、仮想マシン管理ソフト122は、VVOL管理ソフト123及びストレージ管理ソフト124から該当するVVOLネットワーク40のボリューム情報を取得する(S303)。
 そして、仮想マシン管理ソフト122は、ストレージ管理ソフト124から、検出したVVOLネットワーク40を構成するGDEV500が所属するディスク制御装置(DKC)310の負荷情報を取得する(S304)。
 そして、仮想マシン管理ソフト122は、最も負荷が高いディスク制御装置310に所属するGDEV500と、サイト番号、容量及びデバイスタイプが同じGDEVがあるかを判定する(S305)。具体的に、仮想マシン管理ソフト122は、GDEV管理テーブル371を参照して、対象となるGDEV500と同様のサイト番号、容量及びデバイスタイプが同じGDEVを検索する。
 そして、仮想マシン管理ソフト122は、ステップS305で最も負荷が高いディスク制御装置310に所属するGDEV500を、ステップS305で検索したGDEV500のうち、最も負荷が低いディスク制御装置310に所属するGDEVにボリュームマイグレーションを行うようストレージ管理ソフト124に指示する(S306)。
 ステップS306でボリュームマイグレーションを指示されたストレージ管理ソフト124は、指定されたボリューム間のマイグレーションを実施する(S307)。
 そして、ストレージ管理ソフト124は、最も負荷が高いディスク制御装置310に所属するGDEV500と、ボリュームマイグレーションを実施してGDEV500とを入れ替えて、VVOLネットワーク40を再構築するようVVOL管理ソフト123に指示する(S308)。そして、VVOL管理ソフト123は、ステップS308で指定されたVVOLネットワーク40を再構築する(S309)。
 なお、ステップS309におけるVVOLネットワーク40の再構築処理は、ステップS307におけるボリューム間のマイグレーション処理の終了を待たずに行ってもよい。ボリューム間のマイグレーション処理は、ホストからのデータの読み込み/書き込み要求に対して、所定の領域(ページ)毎にマイグレーションが完了したかを示すフラグを用いてマイグレーション前のボリュームまたはマイグレーション後のボリュームにデータの読み込み/書き込み処理が実行される。
 そして、仮想マシン管理ソフト122は、ストレージポリシのIOPS条件を満たさないVVOLネットワーク40を他に検出したかを判定する(S310)。
 ステップS310において、ストレージポリシのIOPS条件を満たさないVVOLネットワーク40を検出したと判定された場合には、仮想マシン管理ソフト122は、ステップS303以降の処理を繰り返す。一方、ステップS310において、ストレージポリシのIOPS条件を満たさないVVOlネットワーク40を検出しなかった場合には、仮想マシン管理ソフト122は、VVOLの再構築処理を終了する。
(3-4)本実施の形態の効果
 本実施の形態によれば、ストレージポリシ管理テーブル224にI/O性能の上限及び/または下限を示す情報が設定されており、仮想ボリューム(VVOLネットワーク40)のI/O性能がストレージポリシに設定されたI/O性能の上限及び/または下限を満たさなくなった場合に、仮想ボリューム(VVOLネットワーク40)に対応付けられている論理ボリューム(GDEV500)に代えて、該I/O性能の上限及び/または下限を満たす論理ボリュームGDEV500を仮想ボリューム(VVOLネットワーク40)にマッピングする。これにより、ストレージシステムの負荷分散を行う際に、仮想マシン250を停止することなくマイグレーションを実行することが可能となる。
 100  管理サーバ
 121  DR管理ソフト
 122  仮想マシン管理ソフト
 123  VVOL管理ソフト
 124  ストレージ管理ソフト
 200  仮想化サーバ
 221  ハイパーバイザ
 222  仮想マシン管理テーブル
 223  データストア管理テーブル
 224  ストレージポリシ管理テーブル
 300  ストレージサブシステム
 310  ディスク制御装置
 350  リモートコピー管理プログラム
 351  リモートコピー管理テーブル
 360  VVOL管理プログラム
 361  VVOL管理テーブル
 370  GDEV管理プログラム
 371  GDEV管理テーブル
 380  LDEV管理プログラム
 381  LDEV管理テーブル
 

Claims (13)

  1.  複数の物理ディスクを有する複数のディスク制御装置と、仮想マシンに割り当てられる前記複数の物理ディスクを管理する管理サーバとがネットワークを介して接続され、
     前記複数のディスク制御装置は、
     前記複数の物理ディスクにより提供される所定の記憶領域を1または複数の論理ボリュームとして管理し、
     前記管理サーバからの要求に応じて、前記仮想マシンの容量情報を含み、前記仮想マシンを構築するために予め設定されたストレージポリシに適合する前記1または複数の論理ボリュームを前記仮想マシンに提供する仮想ボリュームにマッピングし、
     前記管理サーバは、
     一の前記ストレージポリシが選択された場合に、該ストレージポリシに合致する前記仮想ボリュームを前記仮想マシンに対応付けることにより前記仮想マシンを構築する
     ことを特徴とする、ストレージシステム。
  2.  前記複数のディスク制御装置は、
     各々1または複数の物理ボリュームへのデータの入出力を管理し、
     前記複数のディスク制御装置間で識別可能な識別情報を、前記複数の物理ボリュームの所定の記憶領域からなる前記複数の論理ボリュームに付与し、
     前記複数のディスク制御装置にまたがって管理される複数の前記論理ボリュームを、1の前記仮想ボリュームにマッピングする、
     ことを特徴とする、請求項1に記載のストレージシステム。
  3.  前記ストレージポリシにI/O性能を示す情報が設定されていた場合に、
     前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、前記ストレージポリシに設定されているI/O性能を満たす前記論理ボリュームを前記仮想ボリュームにマッピングする
     ことを特徴とする、請求項1に記載のストレージシステム。
  4.  前記ストレージポリシに前記仮想ボリュームに対するアクセス方法を示す情報が設定されていた場合に、
     前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、前記仮想ボリュームの先頭領域とその他の領域とで異なる性能を有する前記複数のディスク制御装置の前記論理ボリュームをマッピングする
     ことを特徴とする、請求項3に記載のストレージシステム。
  5.  一の前記ディスク制御装置は高性能な前記物理ボリュームに対応付けられた前記論理ボリュームを前記仮想ボリュームにマッピングし、他の前記ディスク制御装置は前記先頭領域以外に高性能ではない前記物理ボリュームに対応付けられた前記論理ボリュームを前記仮想ボリュームにマッピングする
     ことを特徴とする、請求項4に記載のストレージシステム。
  6.  前記ストレージポリシに前記仮想ボリュームに対して高性能のアクセス方法を示す情報が設定されていた場合に、
     前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、前記複数のディスク制御装置の各々が有する小容量の複数の前記論理ボリュームを前記仮想ボリュームにマッピングする
     ことを特徴とする、請求項3に記載のストレージシステム。
  7.  前記ストレージポリシに、前記ストレージシステムのコピー元であるローカルサイトと前記ストレージシステムのコピー先であるリモートサイトとの間でリモートコピーを実施することを示す情報が含まれている場合に、
     前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、
     前記ストレージポリシに含まれるリモートコピーのコピータイプに応じて、前記複数の論理ボリュームのうち所定の数の論理ボリュームを、前記ローカルサイトの仮想ボリューム及び前記リモートサイトの仮想ボリュームにマッピングする
     ことを特徴とする、請求項1に記載のストレージシステム。
  8.  前記ストレージポリシに含まれるリモートコピーのコピータイプが高速にリモートコピーを実施することを示す高速DRである場合には、
     前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、
     前記ローカルサイトにおける前記仮想ボリュームにマッピングされた前記論理ボリュームの構成と、前記リモートサイトにおける前記仮想ボリュームにマッピングされた前記論理ボリュームの構成とを同様の構成とする
     ことを特徴とする、請求項7に記載のストレージシステム。
  9.  前記ストレージポリシに含まれるリモートコピーのコピータイプが中速でリモートコピーを実施することを示す中速DRである場合には、
     前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、
     前記ローカルサイトにおいて前記仮想ボリュームにマッピングされた前記論理ボリュームの性能と同様であるとなる前記論理ボリュームを、前記リモートサイトにおける前記仮想ボリュームにマッピングする
     ことを特徴とする、請求項7に記載のストレージシステム。
  10.  前記複数のディスク制御装置は、
     前記ローカルサイトにおいて前記仮想ボリュームにマッピングされた前記論理ボリュームの数より少ない数の前記論理ボリュームを、前記リモートサイトにおける前記仮想ボリュームにマッピングする、
     ことを特徴とする、請求項7に記載のストレージシステム。
  11.  前記ストレージポリシに含まれるリモートコピーのコピータイプが低速でリモートコピーを実施することを示す低速DRである場合には、
     前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、
     性能の低い前記論理ボリュームを前記リモートサイトにおける前記仮想ボリュームにマッピングする
     ことを特徴とする、請求項7に記載のストレージシステム。
  12.  前記ストレージポリシにI/O性能の上限及び/または下限を示す情報が設定されている場合に、前記複数のディスク制御装置は、前記管理サーバからの要求に応じて、該I/O性能の上限及び/または下限を満たす前記論理ボリュームを前記仮想ボリュームにマッピングし、
     前記仮想ボリュームのI/O性能が前記ストレージポリシに設定されたI/O性能の上限及び/または下限を満たさなくなった場合に、前記仮想ボリュームに対応付けられている前記論理ボリュームに代えて、該I/O性能の上限及び/または下限を満たす前記論理ボリュームを前記仮想ボリュームにマッピングする
     ことを特徴とする、請求項1に記載のストレージシステム。
  13.  複数のディスク制御装置と、前記複数の物理ディスクを管理する管理サーバとから構成されるストレージシステムにおける、ストレージシステム管理方法であって、
     前記複数の物理ディスクにより提供される所定の記憶領域が1または複数の論理ボリュームとして前記複数のディスク制御装置に管理され、前記複数の物理ディスクの記憶領域が割り当てられる仮想マシンが前記管理サーバに管理され、
     前記管理サーバが、前記仮想マシンの容量情報を含み、前記仮想マシンを構築するためのストレージポリシを作成するステップと、
     前記管理サーバからの要求に応じて、前記複数のディスク制御装置が、前記ストレージポリシに適合する前記1または複数の論理ボリュームを前記仮想マシンに提供する仮想ボリュームにマッピングするステップと、
     前記管理サーバが、前記ストレージポリシが選択された場合に、該ストレージポリシに合致する前記仮想ボリュームを前記仮想マシンに対応付けることにより前記仮想マシンを構築するステップと、
     を含むことを特徴とする、ストレージシステムの管理方法。
     
PCT/JP2013/072852 2013-08-27 2013-08-27 ストレージシステム及びストレージシステム管理方法 WO2015029133A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/359,920 US9075530B2 (en) 2013-08-27 2013-08-27 Storage system and the storage system management method
PCT/JP2013/072852 WO2015029133A1 (ja) 2013-08-27 2013-08-27 ストレージシステム及びストレージシステム管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/072852 WO2015029133A1 (ja) 2013-08-27 2013-08-27 ストレージシステム及びストレージシステム管理方法

Publications (1)

Publication Number Publication Date
WO2015029133A1 true WO2015029133A1 (ja) 2015-03-05

Family

ID=52585752

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/072852 WO2015029133A1 (ja) 2013-08-27 2013-08-27 ストレージシステム及びストレージシステム管理方法

Country Status (2)

Country Link
US (1) US9075530B2 (ja)
WO (1) WO2015029133A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181197A (ja) * 2015-03-25 2016-10-13 日本電気株式会社 情報処理装置、方法及びプログラム
JP2020191100A (ja) * 2017-11-30 2020-11-26 株式会社日立製作所 システム及びその制御方法並びにプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9052938B1 (en) 2014-04-15 2015-06-09 Splunk Inc. Correlation and associated display of virtual machine data and storage performance data
US9940152B2 (en) * 2015-07-20 2018-04-10 Hewlett Packard Enterprise Development Lp Methods and systems for integrating a volume shadow copy service (VSS) requester and/or a VSS provider with virtual volumes (VVOLS)
US9971664B2 (en) * 2015-08-27 2018-05-15 Vmware, Inc. Disaster recovery protection based on resource consumption patterns
US10146465B1 (en) * 2015-12-18 2018-12-04 EMC IP Holding Company LLC Automated provisioning and de-provisioning software defined storage systems
US10528294B2 (en) 2016-08-03 2020-01-07 International Business Machines Corporation Provisioning and managing virtual machines from a storage management system
US10768827B2 (en) 2017-04-07 2020-09-08 Microsoft Technology Licensing, Llc Performance throttling of virtual drives
JP7154261B2 (ja) * 2020-09-25 2022-10-17 株式会社日立製作所 複合型ストレージシステム
CN114968128A (zh) * 2022-07-28 2022-08-30 云宏信息科技股份有限公司 基于qcow2的虚拟磁盘映射方法、系统及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128899A (ja) * 2008-11-28 2010-06-10 Hitachi Ltd 情報処理システム、情報処理システムにおける制御方法、および、管理装置
JP2011076286A (ja) * 2009-09-30 2011-04-14 Hitachi Ltd ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
WO2012117507A1 (ja) * 2011-02-28 2012-09-07 株式会社日立製作所 管理計算機及び計算機システムの管理方法
WO2013038510A1 (ja) * 2011-09-13 2013-03-21 株式会社日立製作所 仮想ボリュームに割り当てられた要求性能に基づく制御を行うストレージシステムの管理システム及び管理方法
WO2013103006A1 (ja) * 2012-01-05 2013-07-11 株式会社日立製作所 計算機システムの管理装置及び管理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8949395B2 (en) * 2004-06-01 2015-02-03 Inmage Systems, Inc. Systems and methods of event driven recovery management
JP5567147B2 (ja) 2010-07-16 2014-08-06 株式会社日立製作所 記憶制御装置、又は複数の当該記憶制御装置を有する記憶システム
JP2013038510A (ja) 2011-08-04 2013-02-21 Nec Corp ネットワーク管理システム、ネットワーク、経路設定方法およびプログラム
US8775773B2 (en) 2011-08-26 2014-07-08 Vmware, Inc. Object storage system
EP2784985B1 (en) * 2011-12-29 2016-10-05 Huawei Technologies Co., Ltd. Cloud computing system and method for managing storage resources therein
US8935496B2 (en) * 2012-08-31 2015-01-13 Hitachi, Ltd. Management method of virtual storage system and remote copy system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128899A (ja) * 2008-11-28 2010-06-10 Hitachi Ltd 情報処理システム、情報処理システムにおける制御方法、および、管理装置
JP2011076286A (ja) * 2009-09-30 2011-04-14 Hitachi Ltd ボリューム割り当てを管理する計算機システム及びボリューム割り当て管理方法
WO2012117507A1 (ja) * 2011-02-28 2012-09-07 株式会社日立製作所 管理計算機及び計算機システムの管理方法
WO2013038510A1 (ja) * 2011-09-13 2013-03-21 株式会社日立製作所 仮想ボリュームに割り当てられた要求性能に基づく制御を行うストレージシステムの管理システム及び管理方法
WO2013103006A1 (ja) * 2012-01-05 2013-07-11 株式会社日立製作所 計算機システムの管理装置及び管理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181197A (ja) * 2015-03-25 2016-10-13 日本電気株式会社 情報処理装置、方法及びプログラム
JP2020191100A (ja) * 2017-11-30 2020-11-26 株式会社日立製作所 システム及びその制御方法並びにプログラム

Also Published As

Publication number Publication date
US9075530B2 (en) 2015-07-07
US20150153959A1 (en) 2015-06-04

Similar Documents

Publication Publication Date Title
WO2015029133A1 (ja) ストレージシステム及びストレージシステム管理方法
US8984221B2 (en) Method for assigning storage area and computer system using the same
US9904471B2 (en) System software interfaces for space-optimized block devices
US9052825B2 (en) System software interfaces for space-optimized block devices
US9710187B1 (en) Managing data relocation in storage systems
US8639899B2 (en) Storage apparatus and control method for redundant data management within tiers
US8122212B2 (en) Method and apparatus for logical volume management for virtual machine environment
US20140115579A1 (en) Datacenter storage system
US9262097B2 (en) System and method for non-volatile random access memory emulation
WO2013065081A1 (en) Storage apparatus and data management method
US9329792B2 (en) Storage thin provisioning and space reclamation
US20120191929A1 (en) Method and apparatus of rapidly deploying virtual machine pooling volume
US8954706B2 (en) Storage apparatus, computer system, and control method for storage apparatus
JP2015518997A (ja) 統合型ストレージ/vdiプロビジョニング方法
US9110591B2 (en) Memory resource provisioning using SAS zoning
US10048885B1 (en) Managing reclaiming storage space in file systems
JP2005135408A (ja) 階層記憶システム
JP6568653B2 (ja) ストレージシステムの管理装置
US10223016B2 (en) Power management for distributed storage systems
US10089125B2 (en) Virtual machines accessing file data, object data, and block data
Azagury et al. GPFS-based implementation of a hyperconverged system for software defined infrastructure
WO2016207995A1 (ja) 計算機システム及び記憶制御方法
US8527716B2 (en) Volume sharing method and storage system using the same

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 14359920

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13892652

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13892652

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP