WO2013140492A1 - データアクセス方法およびプログラム - Google Patents

データアクセス方法およびプログラム Download PDF

Info

Publication number
WO2013140492A1
WO2013140492A1 PCT/JP2012/056985 JP2012056985W WO2013140492A1 WO 2013140492 A1 WO2013140492 A1 WO 2013140492A1 JP 2012056985 W JP2012056985 W JP 2012056985W WO 2013140492 A1 WO2013140492 A1 WO 2013140492A1
Authority
WO
WIPO (PCT)
Prior art keywords
initialization
storage area
access request
storage
data
Prior art date
Application number
PCT/JP2012/056985
Other languages
English (en)
French (fr)
Inventor
一範 小橋
俊英 柳川
村山 浩
宏幸 安藤
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2012/056985 priority Critical patent/WO2013140492A1/ja
Priority to JP2014505826A priority patent/JP6119736B2/ja
Publication of WO2013140492A1 publication Critical patent/WO2013140492A1/ja
Priority to US14/485,830 priority patent/US9582214B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0632Configuration or reconfiguration of storage systems by initialisation or re-initialisation of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Definitions

  • the present invention relates to a data access method and a program.
  • the hardware resource allocated to the user can include a storage area of a storage device such as a hard disk device.
  • a storage device such as a hard disk device.
  • the computer selects from the pooled unallocated storage area and causes the virtual machine to use the storage area.
  • the computer releases the storage area of the virtual machine and returns it to the pool.
  • a storage area that has been used by a certain user in the past may be reassigned to another user.
  • the computer initializes the storage area by writing a predetermined bit string in the storage area. The initialization of the storage area is preferably completed before the storage area becomes accessible by reassignment.
  • the initialization process can take a long time, it is possible to allocate a storage area that has not been initialized to the user so that the user does not wait at the hardware resource allocation stage. It is also possible to proceed with the initialization process. If the initialization of the access destination storage area is not yet completed at the time of the access request from the user, the data access and the initialization process are adjusted.
  • a storage control device that determines whether a requested area on a disk is formatted when an access request is received from a host, and logically formats the area before disk access if the area is unformatted.
  • a recording / reproducing apparatus has been proposed in which when a host computer receives a data recording request after starting a background format for a recording medium, the background format is interrupted and data is recorded on the recording medium. Also, if there is a read request specifying an uninitialized area, a predetermined null data is returned, and if there is a write request specifying an uninitialized area, write processing is performed until the initialization of the specified area is completed.
  • a storage system for waiting is proposed.
  • an object of the present invention is to provide a data access method and a program that improve the processing efficiency of a system that allows data access during the initialization process.
  • a data access method executed by a storage system capable of managing a storage area initialization status of one or more storage devices in units of blocks.
  • the data access method it is allowed to accept an access request indicating data writing to the first storage area which is a part of an uninitialized block.
  • an access request is accepted, data is written to the first storage area specified by the access request in the block without being initialized, and the second not specified by the access request in the block Initialize the storage area. It is determined that the initialization of the block is completed by writing data to the first storage area and initializing the second storage area.
  • a data access method executed by a storage system capable of managing the initialization status of storage areas included in one or more storage devices in units of blocks is provided.
  • the data access method it is allowed to accept an access request indicating reading of data from a first storage area that is a part of a block that has not been initialized.
  • the first storage area specified in the access request and the second storage area not specified in the access request in the block are initialized, and the first storage area after initialization is stored in the first storage area
  • Corresponding data is output as an access result. It is determined that the initialization of the block is completed by the initialization of the first and second storage areas performed in response to the access request.
  • An access request indicating data writing to the first storage area that is a part of the uninitialized block is received.
  • data is written to the first storage area specified by the access request in the block without being initialized, and the second not specified by the access request in the block Initialize the storage area. It is determined that the initialization of the block is completed by writing data to the first storage area and initializing the second storage area.
  • An access request indicating reading of data from the first storage area that is a part of a block that has not been initialized is received.
  • the first storage area specified in the access request and the second storage area not specified in the access request in the block are initialized, and the first storage area after initialization is stored in the first storage area
  • Corresponding data is output as an access result. It is determined that the initialization of the block is completed by the initialization of the first and second storage areas performed in response to the access request.
  • FIG. 1 is a diagram illustrating the storage system according to the first embodiment.
  • the storage system according to the first embodiment includes a computer 10 and storage devices 21 and 22.
  • the computer 10 is connected to the storage devices 21 and 22 via a network.
  • the storage devices 21 and 22 are devices each including a non-volatile recording medium such as a hard disk.
  • the computer 10 performs data access to the storage devices 21 and 22 and returns an access result to the client 30.
  • the client 30 may be a computer other than the computer 10 or may be software (for example, a virtual machine) that operates on the computer 10. In the former case, the computer 10 receives an access request from the client 30 via the network.
  • the computer 10 initializes a storage area included in the storage devices 21 and 22.
  • a predetermined bit string is written as an initial value in the storage area, so that previously stored data is erased and cannot be read out.
  • the computer 10 divides the storage area included in the storage devices 21 and 22 into a plurality of blocks, and manages the initialization status in units of blocks.
  • the block may be a storage area having a fixed size (for example, 1 Mbyte).
  • the computer 10 holds a bitmap indicating whether or not each block has been initialized.
  • the computer 10 includes a processor 11 such as a CPU (Central Processing Unit) and a memory 12 such as a RAM (Random Access Memory).
  • the memory 12 stores a program for data access and initialization processing, and the processor 11 executes the program stored in the memory 12.
  • the computer 10 may include an electronic circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array) instead of the processor 11 or together with the processor 11.
  • the processor 11 may include a dedicated circuit for data access and initialization processing instead of or together with a general-purpose arithmetic unit that executes program instructions.
  • the storage system allows an access request to be received from the client 30 even during the background initialization process. Therefore, the computer 10 adjusts initialization processing and data access as described below.
  • the computer 10 receives from the client 30 an access request 31 indicating data writing to the storage area # 1, which is a part of the block 23 that has not been initialized.
  • the computer 10 writes data to the storage area # 1 specified by the access request 31 in the block 23 without initialization.
  • the computer 10 initializes the storage area # 2 in the block 23 that is not specified by the access request 31.
  • the storage area # 2 is preferably all storage areas other than the designated storage area # 1 in the block 23.
  • the computer 10 returns an access result for the access request 31 (for example, success or failure of writing) to the client 30. Further, the computer 10 determines that the initialization of the block 23 is completed by the data writing to the storage area # 1 and the initialization of the storage area # 2 performed in response to the access request 31. As a result, in the initialization process continued in the background, the block 23 is excluded from the initialization target. For example, the computer 10 sets the bit indicating the block 23 to “initialized” in the bitmap.
  • the computer 10 receives from the client 30 an access request 32 indicating reading of data from the storage area # 1, which is a part in the block 24 that has not been initialized.
  • the computer 10 initializes the storage area # 1 designated by the access request 32 and the storage area # 2 not designated in the block 24.
  • the sum of storage area # 1 and storage area # 2 is preferably the entire block 24.
  • the computer 10 outputs data corresponding to the storage area # 1 after initialization to the client 30 as an access result for the access request 32.
  • the computer 10 may read data from the storage area # 1 after initialization and output it as an access result, or store the initial value written in the storage area # 1 in the memory 12 and store the initial value. May be output as an access result.
  • the computer 10 determines that the initialization of the block 24 is completed by the initialization of the storage areas # 1 and # 2 performed in response to the access request 32. As a result, the block 24 is excluded from the initialization target thereafter.
  • the computer 10 performs exclusive control in units of blocks between a first process that sequentially initializes a plurality of blocks in the background and a second process that performs data access in response to access requests 31 and 32. You may go.
  • the computer 10 holds a bitmap indicating whether or not each block is currently operated, and controls each block to be initialized only by one of the first process and the second process.
  • the computer 10 suspends writing or reading of data according to the access requests 31 and 32 until the initialization is completed.
  • the computer 10 detects blocks 23 and 24 from the initialization target by the first process. Is excluded.
  • the storage system of the first embodiment it is possible to allocate uninitialized blocks 23 and 24 to the client 30 and reduce the time for the client 30 to wait for storage area allocation.
  • initialization is omitted for the designated storage area # 1, and data is directly written. Response delay can be reduced as compared with the case of writing.
  • the storage area # 2 that is not designated in the block 23 is also initialized, the entire block 23 can be handled as initialized, and the control of the initialization process performed in the background is simplified. .
  • the block 24 when there is an access request 32 indicating reading from the block 24, the block 24 is initialized. Therefore, when the block 24 is accessed a plurality of times, rather than when the initial value is returned without initialization. The load is reduced. In addition to the designated storage area # 1, the storage area # 2 not designated is also initialized, so that the entire block 24 can be treated as initialized, and the initialization process performed in the background can be performed. Control is concise. As described above, in the storage system according to the first embodiment, the efficiency of the data access and the initialization process can be made compatible, and the processing efficiency of the storage system is improved.
  • the computer 10 performs both the process of setting the block 23 in an initialized state in response to a write request and the process of setting the block 24 in an initialized state in response to a read request. It was. However, the computer 10 may perform only one of the process at the time of the write request and the process at the time of the read request described above.
  • FIG. 2 illustrates a storage system according to the second embodiment.
  • the storage system according to the second embodiment includes IO (Input / Output) servers 100 and 100a, storage devices 200 and 200a, access servers 300 and 300a, and a management server 400.
  • the IO servers 100 and 100a and the storage apparatuses 200 and 200a can communicate via the network 41.
  • the IO servers 100 and 100a, the access servers 300 and 300a, and the management server 400 can communicate with each other via the network 42.
  • the IO servers 100 and 100a are server computers that access the storage apparatuses 200 and 200a.
  • the IO servers 100 and 100a convert the logical address into a physical address and access the storage apparatuses 200 and 200a.
  • the access request includes a write request and a read request.
  • the IO servers 100 and 100a initialize the storage areas included in the storage apparatuses 200 and 200a in the background in response to an instruction from the management server 400.
  • the storage area may be initialized when accessing the storage apparatuses 200 and 200a in response to an access request.
  • the storage devices 200 and 200a are non-volatile storage devices such as hard disks, and are server computers that manage data stored in the storage devices. In response to access from the IO server 100, the storage devices 200 and 200a write data to the storage device and read data from the storage device.
  • the access servers 300 and 300a are server computers on which one or more virtual machines operate. Each virtual machine is created in response to a request from the user, and executes an OS (Operating System) and application software independently of each other virtual machine.
  • virtualization software for example, a hypervisor
  • the virtualization software allocates hardware resources such as a CPU and a RAM to the virtual machine and starts the virtual machine.
  • the virtualization software also allows each virtual machine to access the storage areas of the storage apparatuses 200 and 200a allocated by the management server 400 via the IO servers 100 and 100a.
  • the management server 400 manages storage areas of the storage devices 200 and 200a.
  • the management server 400 allocates a part of the storage area of the storage devices 200 and 200a to the virtual machine as a logical disk in response to a request from the user or administrator (for example, in response to an input of a command).
  • the management server 400 designates an IO server used for access by the virtual machine so that the virtual machine can access the logical disk.
  • the designation of the IO server is performed, for example, so that the loads on the IO servers 100 and 100a are not biased.
  • the management server 400 releases the storage area allocated as a logical disk to the virtual machine in response to a request from the user or administrator. For security reasons, the management server 400 instructs the IO servers 100 and 100a to initialize the released storage area before or after the reallocation to another virtual machine (background initialization process). . As will be described later, the storage areas of the storage devices 200 and 200a are allocated to virtual machines in units of fixed-size areas called segments.
  • the storage system according to the second embodiment is installed in, for example, a data center and used for cloud computing.
  • the network 41 and the network 42 are separated, but both may be the same network.
  • the IO servers 100 and 100a and the access servers 300 and 300a are separated.
  • the functions of the IO servers 100 and 100a may be implemented in the virtualization software of the access servers 300 and 300a.
  • the IO servers 100 and 100a are examples of the computer 10 described above
  • the storage devices 200 and 200a are examples of the storage devices 21 and 22, and the access servers 300 and 300a are examples of the client 30 described above.
  • FIG. 3 is a block diagram illustrating an example of hardware included in the server.
  • the IO server 100 includes a CPU 101, a RAM 102, an HDD (Hard Disk Drive) 103, an image signal processing unit 104, an input signal processing unit 105, a disk drive 106, and communication interfaces 107 and 108. Each of the above units is connected to a bus.
  • the IO server 100a, the storage devices 200 and 200a, the access servers 300 and 300a, and the management server 400 can also be realized using the same hardware as the IO server 100.
  • the CPU 101 is an example of the processor 11 described above
  • the RAM 102 is an example of the memory 12 described above.
  • the CPU 101 is a processor including an arithmetic unit that executes program instructions.
  • the CPU 101 reads out at least a part of the programs and data stored in the HDD 103, arranges them in the RAM 102, and executes the programs.
  • the IO server 100 may execute a plurality of processes in parallel using a plurality of processors.
  • the RAM 102 is a volatile memory that temporarily stores programs executed by the CPU 101 and data used for information processing.
  • the IO server 100 may include a memory of a type other than the RAM, or may include a plurality of memories.
  • the HDD 103 is a non-volatile storage device that stores programs such as an OS program and application programs and data.
  • the HDD 103 reads / writes data from / to the built-in magnetic disk in accordance with a command from the CPU 101.
  • the IO server 100 may include a nonvolatile storage device of a type other than the HDD (for example, SSD (Solid State Drive)) or a plurality of storage devices.
  • the image signal processing unit 104 outputs an image to the display 51 connected to the IO server 100 in accordance with a command from the CPU 101.
  • the display 51 for example, a CRT (Cathode Ray Tube) display or a liquid crystal display can be used.
  • the input signal processing unit 105 acquires an input signal from the input device 52 connected to the IO server 100 and outputs it to the CPU 101.
  • the input device 52 for example, a pointing device such as a mouse or a touch panel, a keyboard, or the like can be used.
  • the disk drive 106 is a drive device that reads programs and data recorded on the recording medium 53.
  • a magnetic disk such as a flexible disk (FD) or HDD
  • an optical disk such as a CD (Compact Disk) or a DVD (Digital Versatile Disk), or a magneto-optical disk (MO: Magneto-Optical disk) is used.
  • the disk drive 106 stores the program and data read from the recording medium 53 in the RAM 102 or the HDD 103 in accordance with an instruction from the CPU 101.
  • the communication interface 107 is an interface capable of communicating with the storage apparatuses 200 and 200a via the network 41.
  • the communication interface 108 is an interface capable of communicating with the access servers 300 and 300a and the management server 400 via the network 42.
  • the communication interfaces 107 and 108 may be wired interfaces or wireless interfaces.
  • FIG. 4 is a diagram showing an example of the structure of a logical disk.
  • the IO servers 100 and 100a and the management server 400 manage the storage areas of the storage apparatuses 200 and 200a by dividing them into a plurality of segments.
  • Each segment is a storage area of a fixed size (for example, 256 Mbytes).
  • the storage area of the physical disk (for example, HDD) of the storage apparatus 200 includes segments # 10, # 11, and # 12, and the storage area of the physical disk of the storage apparatus 200a includes segments # 20, # 21, and # 22. .
  • the management server 400 selects one or more segments corresponding to the size requested by the user from a plurality of pooled segments, collects them as a logical disk (VDISK), and assigns them to the virtual machine. For example, the management server 400 collects three segments, segment # 10 of the storage device 200 and segments # 21 and # 22 of the storage device 200a, and creates one logical disk. From the virtual machine, the allocated logical disk appears to be a physical disk, and when the logical disk includes a plurality of segments, the plurality of segments appear to be continuous storage areas. The virtual machine designates a storage area on the logical disk using a logical address.
  • Management server 400 manages the initialization status of the storage area in units of segments.
  • the IO servers 100 and 100a manage the initialization status of storage areas in units of chunks smaller than segments in addition to the units of segments.
  • Each segment includes a plurality (for example, 256) of chunks having a fixed size (for example, 1 Mbyte).
  • the IO server 100 or 100a When the IO server 100 or 100a is instructed by the management server 400 to initialize a segment in the background, the IO server 100 or 100a manages the progress of initialization in units of chunks, processes access requests from virtual machines, and initializes the background. Exclusive control is performed in units of chunks with the conversion process.
  • a chunk is an example of the blocks 23 and 24 of the first embodiment.
  • FIG. 5 is a diagram showing the state transition of the segment.
  • Each segment on the storage devices 200 and 200a takes one of four states: “FREE”, “VALID”, “TZERO”, and “TZERO +”.
  • the state of the segment is managed by the management server 400.
  • FREE indicates that all chunks in the segment have been initialized and are not used by any logical disk.
  • VALID indicates that all chunks in the segment have been initialized and are used for any logical disk.
  • TZERO indicates that at least one chunk in the segment is not initialized and is not used for any logical disk.
  • TZERO + indicates that at least one chunk in the segment is not initialized and is used for any logical disk.
  • a logical disk When a logical disk is created using a FREE segment, the state of the segment transitions from FREE to VALID. When a logical disk including a VALID segment is deleted, the state of the segment changes from VALID to TZERO. When all chunks in the TZERO segment are initialized, the state of the segment transitions from TZERO to FREE. As described above, when the management server 400 newly creates a logical disk, in principle, a FREE segment for which initialization has been completed is selected.
  • a logical disk may be created using the TZERO segment.
  • TZERO segment When a logical disk is created using a TZERO segment that has not been initialized, the state of the segment transitions from TZERO to TZERO +. When all chunks in the TZERO + segment are initialized, the state of the segment transitions from TZERO + to VALID. Each chunk in the TZERO + segment may be initialized by a background initialization process, or may be initialized by an access request from a virtual machine.
  • FIG. 6 is a block diagram showing an example of software that runs on the server. In the following description of the second embodiment, it is assumed that a virtual machine operating on the access server 300 accesses the storage apparatuses 200 and 200a via the IO server 100.
  • the IO server 100 includes a table storage unit 110, an IO conversion unit 120, and an initialization execution unit 130.
  • the table storage unit 110 is realized as a storage area on the RAM 102, for example.
  • the IO conversion unit 120 and the initialization execution unit 130 are realized, for example, as program modules.
  • the IO server 100a can also be realized by a similar block configuration.
  • the table storage unit 110 stores a segment state table indicating an initialization state for each segment for a logical disk in which the IO server 100 is designated as an IO server used for access.
  • the table storage unit 110 also includes a chunk management bitmap including an initialization bitmap indicating an initialization status for each chunk and an exclusion bitmap indicating an exclusion flag for each chunk for a segment that has not been initialized.
  • the IO conversion unit 120 receives an access request from the access server 300, converts the logical address specified in the access request into a physical address, and transmits a data write or read command to the storage apparatuses 200 and 200a. At this time, the IO conversion unit 120 refers to the segment state table and the chunk management bitmap stored in the table storage unit 110 and determines whether the storage area to be accessed includes an uninitialized chunk. When the storage area to be accessed includes an uninitialized chunk, the IO conversion unit 120 controls the access destination chunk to be initialized as the access request is processed.
  • the initialization execution unit 130 receives an initialization request from the management server 400, and advances background initialization processing in units of chunks for the segment specified in the initialization request.
  • the initialization execution unit 130 transmits a command for writing a predetermined bit string, which is an initial value, to the entire chunk to the storage apparatuses 200 and 200a.
  • the initialization execution unit 130 refers to the segment state table and the chunk management bitmap stored in the table storage unit 110 to search for a chunk that has not been initialized and is not being accessed by the IO conversion unit 120. Next, select the chunk to be initialized.
  • a data area 210 is formed on the physical disk (for example, HDD) of the storage apparatus 200.
  • a data area 210a and a management area 220 are formed on the physical disk of the storage device 200a.
  • Each of the data areas 210 and 210a includes a plurality of segments, and each segment includes a plurality of chunks.
  • data is written to or read from the data areas 210 and 210a.
  • the management area 220 at least an initialization bitmap stored in the table storage unit 110 is backed up by the IO server 100 in case the IO server 100 loses information stored in the table storage unit 110 due to a failure. .
  • the access server 300 has an access unit 310.
  • the access unit 310 can be realized as a program module, for example.
  • the access unit 310 transfers the access request to the IO server (in this case, the IO server 100) in charge of the logical disk assigned to the virtual machine.
  • the correspondence relationship between the logical disk and the IO server is notified from the management server 400 when the logical disk can be recognized from the virtual machine (the logical disk is connected to the virtual machine).
  • the management server 400 includes a table storage unit 410, a VDISK management unit 420, and an initialization control unit 430.
  • the table storage unit 410 can be realized as a storage area on a RAM or HDD, for example.
  • the VDISK management unit 420 and the initialization control unit 430 can be implemented as program modules, for example.
  • the table storage unit 410 stores a segment table indicating the state of the segment and the usage status of the segment as a logical disk.
  • the table storage unit 110 also stores a VDISK management table that indicates the correspondence between logical disks and IO servers.
  • the VDISK management unit 420 creates a logical disk by referring to the segment table stored in the table storage unit 410 in response to a command input to the management server 400 by a user or an administrator. In addition, the VDISK management unit 420 connects the created logical disk to the virtual machine according to the command. At this time, the VDISK management unit 420 selects an IO server (in this case, the IO server 100) in charge of the logical disk, and notifies the selected IO server and the access server 300 to that effect. Also, the VDISK management unit 420 deletes the logical disk and releases the segment allocation in response to the command.
  • an IO server in this case, the IO server 100
  • the initialization control unit 430 controls background initialization processing.
  • the initialization control unit 430 monitors the segment table stored in the table storage unit 410, selects an uninitialized TZERO or TZERO + segment, and transmits an initialization request to the IO servers 100 and 100a. At this time, the initialization control unit 430 preferentially selects the allocated TZERO + over the unallocated TZERO segment.
  • the initialization of the TZERO segment may be requested from any IO server.
  • the initialization of the TZERO + segment is requested to the IO server in charge of the logical disk to which the segment belongs.
  • FIG. 7 is a diagram showing an example of the segment table.
  • the segment table 411 illustrated in FIG. 7 is stored in the table storage unit 410 of the management server 400.
  • the segment table 411 includes items of segment ID, storage, status, and VDISK.
  • Segment ID is an identifier for identifying a segment.
  • the storage item indicates the physical disk to which the segment belongs, and an identifier of the physical disk is set.
  • the status item indicates the status of the segment, and any one of FREE, VALID, TZERO, and TZERO + is set.
  • the VDISK item indicates the logical disk to which the segment belongs, and an identifier for identifying the logical disk is set. The logical disk identifier is not set in the FREE and TZERO segments.
  • the VDISK management unit 420 updates the state item and the VDISK item, and the initialization control unit 430 updates the state item.
  • FIG. 8 is a diagram showing an example of the VDISK management table.
  • the VDISK management table 412 illustrated in FIG. 8 is stored in the table storage unit 410 of the management server 400.
  • the VDISK management table 412 includes items of VDISK-ID and IO server.
  • VDISK-ID is an identifier of a logical disk.
  • the item of the IO server indicates an IO server in charge of the logical disk, and an identifier for identifying the IO server (for example, a host name of the IO server or an IP (Internet Protocol) address) is set.
  • an identifier for identifying the IO server for example, a host name of the IO server or an IP (Internet Protocol) address
  • the VDISK management unit 420 updates the VDISK-ID item and the IO server item.
  • FIG. 9 is a diagram showing an example of the segment state table.
  • a segment state table 111 illustrated in FIG. 9 is stored in the table storage unit 110 of the IO server 100.
  • One segment state table corresponds to one logical disk.
  • the segment state table 111 is created in the table storage unit 110 of the IO server 100 in response to an instruction from the management server 400 when a certain logical disk is connected to the virtual machine.
  • the segment state table 111 includes items of an index and an initialization flag.
  • the index is an identifier for identifying a segment in the logical disk. For example, non-negative integer indexes such as 0, 1, 2,... Are assigned to the segments in the logical disk in ascending order of logical addresses.
  • segment state table 111 shown in FIG. 9 represents both the initialized segment and the uninitialized segment
  • segment state table is a list of only segments that have not been initialized or It may be a list of only completed segments.
  • FIG. 10 is a diagram showing an example of the chunk management bitmap.
  • the chunk management bitmap 112 shown in FIG. 10 is stored in the table storage unit 110 of the IO server 100.
  • One chunk management bitmap corresponds to one segment that has not been initialized.
  • the chunk management bitmap 112 is created in the table storage unit 110 of the IO server 100 in response to an instruction from the management server 400 when a logical disk is connected to a virtual machine.
  • the chunk management bitmap 112 includes an exclusive bitmap and an initialization bitmap.
  • the exclusive bitmap contains one exclusive bit per chunk.
  • the plurality of exclusive bits are arranged in ascending order of chunk IDs that are identifiers for identifying the chunks in the segment. For example, when one segment includes 256 chunks, the exclusive bitmap is represented by 256 bits.
  • the initialization bitmap contains one initialization bit per chunk.
  • the plurality of initialization bits are arranged in ascending order of the chunk ID. For example, when one segment includes 256 chunks, the initialization bitmap is represented by 256 bits.
  • the initialization bit is updated by the IO conversion unit 120 or the initialization execution unit 130.
  • the initialization bitmap is backed up in the management area 220 of the storage apparatus 200a.
  • all the chunks in a segment are initialized (for example, all initialization bits are set to 1) and the initialization of the segment is completed, the exclusive bitmap and initialization corresponding to the segment are initialized.
  • the bitmap may be deleted.
  • the chunk management bitmap 112 may be created in a table format.
  • FIG. 11 is a flowchart illustrating an exemplary procedure for creating a VDISK.
  • the process of FIG. 11 is executed when the management server 400 receives a VDISK creation command.
  • the VDISK management unit 420 receives a VDISK creation command input by a virtual machine user or a storage system administrator. In the VDISK creation command, the number of segments the user wants to allocate is specified.
  • the VDISK management unit 420 assigns an identifier (VDISK-ID) to a newly created logical disk.
  • VDISK-ID an identifier
  • Step S12 The VDISK management unit 420 searches the segment table 411 stored in the table storage unit 410, and determines whether there is a FREE (unassigned and initialized) segment. If there is a FREE segment, the process proceeds to step S13. If there is no FREE segment, the process proceeds to step S14.
  • FREE unassigned and initialized
  • Step S13 The VDISK management unit 420 secures one FREE segment for the virtual machine, and updates the state of the segment registered in the segment table 411 from FREE to VALID. In addition, the VDISK management unit 420 registers the identifier of the logical disk in the segment table 411. Then, the process proceeds to step S16.
  • Step S14 The VDISK management unit 420 searches the segment table 411 stored in the table storage unit 410 and determines whether there is a TZERO (unassigned and uninitialized) segment. If there is a TZERO segment, the process proceeds to step S15. If there is no TZERO segment, the process proceeds to step S17.
  • TZERO unassigned and uninitialized
  • Step S15 The VDISK management unit 420 secures one TZERO segment for the virtual machine, and updates the state of the segment registered in the segment table 411 from TZERO to TZERO +. In addition, the VDISK management unit 420 registers the identifier of the logical disk in the segment table 411.
  • Step S16 The VDISK management unit 420 determines whether the number of segments designated by the VDISK creation command has been secured. If the necessary number of segments is secured, the process ends. If the necessary number of segments is not secured, the process proceeds to step S12.
  • Step S17 The VDISK management unit 420 rolls back the processing performed so far by restoring the segment state secured in steps S13 and S15. At this time, the VDISK management unit 420 updates the state registered in the segment table 411 and deletes the logical disk identifier defined in step S11 from the segment table 411. For rollback, the VDISK management unit 420 holds, for example, the update history of the state of the segment table 411 until a segment belonging to the logical disk is determined.
  • FIG. 12 is a flowchart illustrating a procedure example of VDISK connection.
  • the process of FIG. 12 is executed when the management server 400 receives a VDISK connection command.
  • the VDISK management unit 420 accepts a VDISK connection command input by the user of the virtual machine or the administrator of the storage system.
  • the identifier of the created logical disk is specified.
  • the VDISK management unit 420 selects an IO server in charge of the designated logical disk from the IO servers 100 and 100a.
  • the load on the IO servers 100 and 100a is not biased.
  • an IO server different from the previous one is selected by the round robin method, an IO server having the smallest number of logical disks currently in charge is selected with reference to the VDISK management table 412, and the current load on the IO servers 100 and 100 a Inquiry and selection can be considered. In the following description, it is assumed that the IO server 100 is selected here.
  • Step S23 The VDISK management unit 420 sets the correspondence relationship between the logical address and the physical address in the IO conversion unit 120 of the IO server 100 selected in Step S22.
  • a predetermined logical address (for example, No. 0) is assigned to the head of the logical disk, and the logical address increases from the head segment to the tail segment in the logical disk.
  • logical addresses and physical addresses correspond one-to-one.
  • the correspondence relationship between the logical address and the physical address can be specified, for example, by specifying the segment order.
  • Step S24 The VDISK management unit 420 notifies the IO server 100 whether or not the initialization of each segment belonging to the logical disk has been completed.
  • the IO server 100 generates a segment state table 111 based on the notification and stores it in the table storage unit 110. Further, the IO server 100 generates a chunk management bitmap 112 for each segment that has not been initialized, and stores the chunk management bitmap 112 in the table storage unit 110. At this time, all bits of the exclusive bitmap and all bits of the initialization bitmap are set to 0.
  • Step S25 The IO server 100 backs up the initialization bitmap included in the chunk management bitmap 112 generated in Step S24 by copying it to the management area 220 of the storage apparatus 200a.
  • the IO server 100 may back up the segment state table 111 in addition to the initialization bitmap, or may back up the entire chunk management bitmap 112.
  • the IO server 100 reports to the management server 400 whether or not the processing of steps S23 to S25 has been successful.
  • Step S26 The VDISK management unit 420 determines from the response from the IO server 100 whether the setting of the IO server 100 selected in step S22 is successful. If the setting is successful, the VDISK management unit 420 registers the correspondence between the logical disk and the IO server 100 in the VDISK management table 412 stored in the table storage unit 410, and indicates that the IO server 100 has been allocated. Notify Then, the process ends. If the setting has failed, the process proceeds to step S27.
  • Step S27 The VDISK management unit 420 rolls back the processes in steps S23 to S25. At this time, for example, the VDISK management unit 420 deletes the correspondence relationship between the logical address and the physical address from the IO conversion unit 120 and instructs the IO server 100 to delete the segment state table 111 and the chunk management bitmap 112.
  • the created logical disk can be repeatedly disconnected and reconnected from the virtual machine. Thereby, it is possible to switch between a state in which the logical disk can be recognized from the virtual machine and a state in which the logical disk cannot be recognized.
  • the IO server allocation and the segment status table 111 and the chunk management bitmap 112 are created when the logical disk is connected, but may be performed when the logical disk is created. Good.
  • FIG. 13 is a flowchart showing an example of an access processing procedure.
  • the process of FIG. 13 is executed when the IO server 100 receives an access request from the access server 300.
  • the IO server 100a can execute the same processing as that of the IO server 100.
  • a case where a segment on the storage apparatus 200 is accessed is considered.
  • the IO conversion unit 120 receives an access request issued by the virtual machine from the access server 300.
  • the access request includes a write request indicating data write and a read request indicating data read.
  • the storage area to be accessed is specified using, for example, the top logical address and the length of the storage area.
  • Step S32 The IO conversion unit 120 identifies a segment to which the storage area specified by the access request belongs, refers to the segment state table 111 stored in the table storage unit 110, and determines whether the segment state is TZERO + To do. If it is TZERO +, the process proceeds to step S33. If it is not TZERO + (if it is VALID), the IO conversion unit 120 converts the logical address into a physical address, transmits a normal command according to the access request to the storage apparatus 200, and advances the processing to step S41.
  • Step S33 The IO conversion unit 120 identifies one or more chunks including at least a part of the storage area specified by the access request. Then, the IO conversion unit 120 refers to the chunk management bitmap 112 stored in the table storage unit 110, and determines whether all exclusive bits from the first chunk to the last chunk are 0 (no chunk in operation). Judge). If there is no chunk in operation, the process proceeds to step S35, and if there is at least one chunk in operation, the process proceeds to step S34.
  • Step S34 The IO conversion unit 120 puts the access request received in step S31 in the data access queue, and waits for the exclusive bit of all accessed chunks to become 0 (access prohibition is released). . Then, the process proceeds to step S33.
  • the data access queue is created on the RAM 102, for example.
  • Step S ⁇ b> 35 The IO conversion unit 120 sets the exclusive bit of each chunk from the beginning to the end to be accessed to 1 in the chunk management bitmap 112.
  • Step S36 The IO conversion unit 120 determines whether the access request received in step S31 is a write request. If it is a write request, the process proceeds to step S37. If it is not a write request (a read request), the process proceeds to step S38.
  • Step S37 The IO conversion unit 120 converts the logical address into a physical address, and transmits a write command for writing data to the storage area specified by the access request to the storage apparatus 200. At this time, the IO conversion unit 120 may initialize an area other than the storage area to which data is written so that the entire chunk to be accessed is initialized. The conversion from the access request to the write command will be described in more detail later.
  • Step S38 The IO conversion unit 120 converts the logical address into a physical address, and transmits a read command for reading data from the storage area specified by the access request to the storage apparatus 200. At this time, the IO conversion unit 120 also initializes the storage area of the chunk so that the entire chunk to be accessed is initialized. The conversion from an access request to a read command will be described in detail later.
  • Step S39 In the chunk management bitmap 112, the IO conversion unit 120 resets the exclusive bits of each chunk from the beginning to the end of the access to 0.
  • Step S40 The IO conversion unit 120 notifies the data access queue that there is a chunk whose exclusive bit is changed from 1 to 0 (access prohibition is released). Thereby, an access request waiting for processing stored in the queue can be processed.
  • Step S41 The IO conversion unit 120 determines whether the writing process in step S37 or the reading process in step S38 is successful. If successful, the IO conversion unit 120 returns a message indicating that the writing is successful or the read data to the access server 300 that issued the access request, and ends the process. If unsuccessful, the process proceeds to step S42.
  • Step S42 The IO conversion unit 120 returns a message indicating that the writing or reading has failed to the access server 300 that issued the access request, and ends the process. At this time, the IO conversion unit 120 may notify the access server 300 of the cause of the access failure.
  • FIG. 14 is a flowchart illustrating an example of a write conversion procedure.
  • the process shown in FIG. 14 is executed in step S37 of the flowchart shown in FIG. (Step S371)
  • the IO conversion unit 120 refers to the chunk management bitmap 112 stored in the table storage unit 110, and whether the initialization bit of the first chunk is 0 (whether the first chunk is uninitialized) )to decide. If not initialized, the process proceeds to step S372. If initialized, the process proceeds to step S374.
  • Step S372 The IO conversion unit 120 calculates a storage area (non-write area) that is not designated as a data writing area among the storage areas of the first chunk, and initializes the calculated storage area. For example, the IO conversion unit 120 transmits a command for writing a predetermined bit string (for example, all 0s) to the calculated storage area to the storage apparatus 200. At this time, it is not necessary to initialize the storage area (write area) in which data is written.
  • a storage area non-write area
  • Step S373 The IO conversion unit 120 determines whether or not the initialization in step S372 is successful. If successful (for example, if a success response is received from the storage apparatus 200), the process proceeds to step S374. If unsuccessful (for example, if an error response is received from the storage apparatus 200), the access request is changed to a write command. Stop conversion.
  • Step S374 The IO conversion unit 120 refers to the chunk management bitmap 112 stored in the table storage unit 110, and whether the initialization bit of the last chunk is 0 (whether the last chunk is uninitialized) )to decide. If not initialized, the process proceeds to step S375. If initialized, the process proceeds to step S377.
  • Step S375 The IO conversion unit 120 calculates a storage area (non-write area) that is not designated as a data writing area among the storage areas of the last chunk, and initializes the calculated storage area. For example, the IO conversion unit 120 transmits a command for writing a predetermined bit string (for example, all 0s) to the calculated storage area to the storage apparatus 200. At this time, it is not necessary to initialize the storage area (write area) in which data is written.
  • a storage area non-write area
  • Step S376 The IO conversion unit 120 determines whether the initialization in step S375 has been successful. If successful (for example, if a success response is received from the storage apparatus 200), the process proceeds to step S377. If unsuccessful (for example, if an error response is received from the storage apparatus 200), the access request is changed to a write command. Stop conversion.
  • Step S377 The IO conversion unit 120 converts a logical address into a physical address, and transmits a write command according to the access request to the storage apparatus 200. Note that before the above step S371, conversion from a logical address to a physical address may be performed, and a storage area for specifying and initializing a chunk may be calculated based on the physical address.
  • Step S378) The IO conversion unit 120 determines whether a write success response has been received from the storage apparatus 200 in response to the write command in step S377. If the writing has succeeded, the process proceeds to step S379. If the writing has failed, the process ends.
  • Step S379) In the chunk management bitmap 112, the IO conversion unit 120 sets the initialization bit of each chunk from the beginning to the end of access to 1 to 1. Also, the IO conversion unit 120 updates the initialization bitmap that has been backed up in the management area 220 of the storage apparatus 200a. Thus, the chunk need not be initialized by the background initialization process. Note that the processing of steps S371 to S373, the processing of steps S374 to S376, and the processing of steps S377 and S378 may be executed in an arbitrary order, or may be executed in parallel.
  • FIG. 15 is a diagram showing an example of write processing for the storage apparatus.
  • the write area for writing data extends over four chunks (chunks # 1 to # 4), chunks # 1, # 2, and # 4 are uninitialized, and chunk # 3 is initialized.
  • chunks # 1 to # 4 chunks # 1, # 2, and # 4 are uninitialized
  • chunk # 3 is initialized.
  • a non-write area in which data in the first chunk # 1 to be accessed is not written is initialized
  • a non-write area in which data in the last chunk # 4 to be accessed is not written is initialized.
  • the write area for writing data may be directly written without being initialized.
  • the write command for example, the physical address corresponding to the first logical address specified in the access request and the length specified in the access request are notified to the storage apparatus 200.
  • the chunks # 1, # 2, and # 4 that have not been initialized are initialized.
  • the non-write area of the first chunk can be calculated by the following procedure, for example. It is assumed that the start address (offset) of the segment is s, the length of one chunk is c, the start address of the write area is p, and the length of the write area is len.
  • a command including the calculated p1 and len1 is transmitted from the IO server 100 to the storage apparatus 200.
  • the non-write area of the last chunk can be calculated by the following procedure, for example.
  • a command including the calculated p2 and len2 is transmitted from the IO server 100 to the storage apparatus 200.
  • FIG. 16 is a flowchart illustrating an example of a read conversion procedure.
  • the process shown in FIG. 16 is executed in step S38 of the flowchart shown in FIG. (Step S381)
  • the IO conversion unit 120 refers to the chunk management bitmap 112 stored in the table storage unit 110 and selects a chunk (uninitialized chunk) whose initialization bit is 0 from the chunks to be accessed. Search for.
  • Step S382 The IO conversion unit 120 initializes the entire chunk searched in Step S381. For example, the IO conversion unit 120 transmits a command for writing a predetermined bit string (for example, all 0) to each searched chunk to the storage apparatus 200. In the command, for example, the head address and chunk size of each chunk are specified.
  • a predetermined bit string for example, all 0
  • Step S383 The IO conversion unit 120 sets the initialization bit of each initialized chunk to 1 in the chunk management bitmap 112, and the initialization bitmap that was backed up in the management area 220 of the storage device 200a Update. Thus, the chunk need not be initialized by the background initialization process.
  • Step S384 The IO conversion unit 120 converts the logical address into a physical address, and transmits a read command according to the access request to the storage apparatus 200. Note that the logical address may be converted to the physical address before the above step S381, and the storage area for specifying and initializing the chunk may be calculated based on the physical address.
  • Step S385 The IO conversion unit 120 determines whether or not the read data has been normally received from the storage device 200 in response to the read command in Step S384. If the read is successful, the process proceeds to step S386. If the read is unsuccessful, the process ends.
  • Step S386 The IO conversion unit 120 determines whether or not the initialization in step S382 has succeeded. If initialization is successful for all chunks, the process ends. If initialization fails for at least one chunk, the process proceeds to step S387.
  • Step S387 The IO conversion unit 120 discards the data read from the chunk whose initialization has failed and replaces it with a predetermined bit string (for example, all 0) as an initial value.
  • the replacement of data is realized, for example, by overwriting an area on the RAM 102 that stores data to be returned to the access server 300 with an initial value. Thereby, it can suppress that the data before initialization are transmitted to the access server 300 accidentally.
  • data is read after being initialized for an uninitialized chunk. However, data that is to be transmitted to the access server 300 without being read is stored in the chunk immediately after initialization.
  • the stored initial value may be prepared on the RAM 102.
  • FIG. 17 is a diagram showing an example of read processing for the storage apparatus.
  • the storage area (read area) from which data is read spans four chunks (chunks # 1 to # 4), and chunks # 1, # 2, and # 4 are not yet read as in the case of FIG. Assume that chunk # 3 has already been initialized.
  • the entire uninitialized chunks # 1, # 2, and # 4 to be accessed are initialized regardless of whether they are part of the read area.
  • the read command for example, the physical address corresponding to the first logical address specified in the access request and the length specified in the access request are notified to the storage apparatus 200.
  • the chunks # 1, # 2, and # 4 that have not been initialized are initialized.
  • FIG. 18 is a flowchart showing an example of the procedure of initialization processing.
  • the process of FIG. 18 is repeatedly executed at the IO server 100 regularly or irregularly.
  • the IO server 100a can execute the same processing as that of the IO server 100.
  • a case is considered in which a segment on the storage apparatus 200 is initialized in the background.
  • Step S51 The initialization request received from the management server 400 is stored in a management queue provided in the IO server 100.
  • the management queue is created on the RAM 102, for example.
  • the initialization execution unit 130 extracts one initialization request from the queue. In each initialization request, one segment to be initialized is specified.
  • Step S52 The initialization execution unit 130 refers to the segment status table 111 stored in the table storage unit 110, and determines whether the initialization flag of the segment specified in the initialization request is 1 (the segment status is already VALID). In the case of VALID, the process proceeds to step S59, and in the case of TZERO +, the process proceeds to step S53.
  • Step S53 The initialization executing unit 130 selects one chunk included in the designated segment. For example, the initialization execution unit 130 selects items in ascending order of chunk ID.
  • Step S54 The initialization execution unit 130 initializes the chunk selected in step S53. The chunk initialization will be described in more detail later.
  • Step S55 The initialization executing unit 130 determines whether there is a chunk that has not been selected in Step S53 in the designated segment. If there is an unselected chunk, the process proceeds to step S53. If all chunks have been selected, the process proceeds to step S56.
  • Step S56 The initialization execution unit 130 sets the initialization flag of the designated segment to 1 (VALID) in the segment state table 111.
  • the initialization execution unit 130 notifies the management server 400 that the initialization of the designated segment has been completed.
  • the segment table 411 memorize
  • Step S57 The initialization executing unit 130 deletes the chunk management bitmap 112 for the segment for which initialization has been completed from the table storage unit 110.
  • Step S58 The initialization executing unit 130 deletes the initialization bitmap that has been backed up in the management area 220 of the storage apparatus 200a. Note that the processing of steps S56 to S58 may be executed in an arbitrary order, or may be executed in parallel.
  • Step S59 The initialization execution unit 130 determines whether the management queue is empty. If the management-required queue is empty, the process ends. If an initialization request remains in the management queue, the process proceeds to step S51 to process the next initialization request.
  • FIG. 19 is a flowchart illustrating an exemplary procedure for chunk initialization.
  • the process shown in FIG. 19 is executed in step S54 of the flowchart shown in FIG. (Step S541)
  • the initialization execution unit 130 refers to the chunk management bit map 112 stored in the table storage unit 110, and determines whether the exclusive bit of the selected chunk is 0 (whether access is prohibited). . If the exclusive bit is 0, the process proceeds to step S542. If the exclusive bit is 1, the process ends. At this time, the chunk whose exclusive bit is 1 is initialized by the IO conversion unit 120.
  • Step S542 The initialization execution unit 130 refers to the chunk management bitmap 112 and determines whether the initialization bit of the selected chunk is 0 (whether the chunk is uninitialized). If the initialization bit is 0, the process proceeds to step S543. If the initialization bit is 1, the selected chunk has been initialized, and the process is terminated.
  • Step S543 The initialization execution unit 130 sets the exclusive bit of the chunk to 1 in the chunk management bitmap 112, and prohibits the access by the IO conversion unit 120.
  • Step S544 The initialization execution unit 130 initializes the entire selected chunk. For example, the initialization execution unit 130 transmits a command for writing a predetermined bit string (for example, all 0) from the beginning to the end of the chunk to the storage apparatus 200. In the command, for example, the head address of the chunk and the chunk size are specified.
  • a predetermined bit string for example, all 0
  • Step S545) The initialization execution unit 130 sets the initialization bit of the initialized chunk to 1 in the chunk management bitmap 112, and the initialization bitmap that was backed up in the management area 220 of the storage device 200a Update.
  • Step S546 The initialization executing unit 130 determines whether or not the initialization in step S544 is successful. If successful (for example, if a success response is received from the storage apparatus 200), the process proceeds to step S548. If unsuccessful (for example, if an error response is received from the storage apparatus 200), the process proceeds to step S547.
  • Step S547 The initialization execution unit 130 reports an error to the management server 400.
  • Step S548 The initialization execution unit 130 sets the exclusive bit of the chunk to 1 in the chunk management bitmap 112 and releases the access by the IO conversion unit 120.
  • Step S549) The initialization executing unit 130 notifies the data access queue that there is a chunk whose exclusive bit is changed from 1 to 0 (access prohibition is released). Thereby, an access request waiting for processing stored in the queue can be processed.
  • FIG. 20 is a diagram showing a change example of the state of the logical disk.
  • a logical disk is created using FREE segment # 10 and TZERO segments # 21 and # 22.
  • the segment state table 111 whose initialization flag column is “100” is generated in the IO server 100. Also, two initialization bitmaps whose initialization bits are all 0 are generated in the IO server 100 corresponding to the second and third segments that have not been initialized.
  • the management server 400 instructs initialization of the segment # 21, for example, initialization is performed in order from the first chunk of the second segment of the logical disk.
  • the first initialization bit is updated from 0 to 1 in the initialization bitmap corresponding to the second segment.
  • the access server 300 issues an access request specifying a storage area extending over chunks # 1 to # 4 of the third segment, chunks # 1 to # 4 are initialized.
  • the second to fifth initialization bits are updated from 0 to 1.
  • the initialization flag column of the segment state table 111 is updated to “110”.
  • the initialization bitmap corresponding to the second segment of the logical disk is deleted from the IO server 100.
  • the storage system of the second embodiment it is possible to create a logical disk using a segment that has not been initialized and assign it to a virtual machine, and the user can store the storage areas of the storage apparatuses 200 and 200a.
  • the time to wait for allocation can be reduced.
  • exclusive control is performed in units of chunks into which segments are segmented, the probability of waiting for access because of initialization in the background can be reduced.
  • the efficiency of data access and initialization processing can be made compatible, and the processing efficiency of the storage system is improved.
  • the specified storage area is written directly without being initialized, reducing the response delay to the virtual machine. Can do.
  • the storage area that is not specified in the chunk into which data is written is also initialized, the entire chunk can be handled as initialized, and the control of the initialization process performed in the background is simplified.
  • the entire chunk is initialized. For example, the load when the chunk is accessed a plurality of times is reduced.
  • initialization since initialization is performed for a storage area that is not specified in a chunk from which data is read, the entire chunk can be handled as initialized, and control of initialization processing performed in the background is simplified.
  • the data access method according to the first embodiment can be realized by causing the computer 10 to execute a program.
  • the data access method according to the second embodiment can be realized by causing the IO servers 100 and 100a, the storage devices 200 and 200a, the access servers 300 and 300a, and the management server 400 as computers to execute programs.
  • the program can be recorded on a computer-readable recording medium (for example, the recording medium 53).
  • a computer-readable recording medium for example, the recording medium 53.
  • the recording medium for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like can be used.
  • Magnetic disks include FD and HDD.
  • Optical disks include CD, CD-R (Recordable) / RW (Rewritable), DVD, and DVD-R / RW.
  • a portable recording medium on which the program is recorded is provided. It is also possible to store the program in a storage device of another computer and distribute the program via a network.
  • the computer stores, for example, a program recorded on a portable recording medium or a program received from another computer in a storage device (for example, HDD 103), and reads and executes the program from the storage device.
  • a program read from a portable recording medium may be directly executed, or a program received from another computer via a network may be directly executed.

Abstract

 初期化処理の途中でデータアクセスを許容するシステムの処理効率を改善する。 ストレージシステムは、記憶領域の初期化状況をブロック単位で管理する。初期化されていないブロック(23)内の一部分である記憶領域#1へのデータの書き込みを示すアクセス要求(31)を受け付けることを許容する。アクセス要求(31)を受け付けると、ブロック(23)内のうち指定された記憶領域#1に対して初期化せずにデータを書き込み、また、指定されなかった記憶領域#2を初期化する。記憶領域#1へのデータの書き込みと記憶領域#2の初期化とによって、ブロック(23)の初期化が完了したと判断する。

Description

データアクセス方法およびプログラム
 本発明はデータアクセス方法およびプログラムに関する。
 現在、データセンタなどの拠点に設置されたコンピュータのハードウェア資源を、ユーザに割り当てて使用させるサービスが提供されている。このようなサービスは、クラウドコンピューティングの技術を用いて実現されることがあり、IaaS(Infrastructure as a Service)と呼ばれることがある。ユーザに割り当てられるハードウェア資源には、ハードディスク装置などの記憶装置の記憶領域が含まれ得る。例えば、コンピュータは、ユーザの仮想マシンを作成するとき、プールされている未割り当ての記憶領域の中から選択して当該仮想マシンに記憶領域を使用させる。また、例えば、コンピュータは、ユーザの仮想マシンを削除するとき、当該仮想マシンの記憶領域を解放してプールに戻す。
 上記のように動的に記憶領域を割り当てる方法では、あるユーザが過去に使用していた記憶領域を、他のユーザに再割り当てすることが起こり得る。このとき、前のユーザの情報が後のユーザに漏洩しないよう、セキュリティの観点から再割り当てする記憶領域を初期化(フォーマット)することが好ましい。例えば、コンピュータは、記憶領域に所定のビット列を書き込むことで、当該記憶領域を初期化する。記憶領域の初期化は、再割り当てによって当該記憶領域がアクセス可能となる前に完了することが好ましい。
 ただし、初期化処理は長い時間を要することがあるため、ハードウェア資源の割り当て段階でユーザを待たせないよう、初期化が完了していない記憶領域をユーザに割り当てることを許容し、バックグラウンドで初期化処理を進めることも考えられる。もし、ユーザからアクセス要求があった時点でもまだアクセス先の記憶領域の初期化が完了していないときは、データアクセスと初期化処理とを調整することになる。
 例えば、ホストからアクセス要求があると、ディスク上の要求された領域がフォーマット済か判定し、未フォーマットの場合にはディスクアクセスの前に当該領域を論理フォーマットするストレージ制御装置が提案されている。また、記録媒体に対するバックグラウンドフォーマットを開始した後に、ホストコンピュータからデータ記録要求があると、バックグラウンドフォーマットを中断して記録媒体にデータを記録する記録再生装置が提案されている。また、未初期化エリアを指定した読み出し要求があると、所定のナルデータを返送し、未初期化エリアを指定した書き込み要求があると、指定されたエリアの初期化が完了するまで書き込み処理を待機させるストレージシステムが提案されている。
特開2003-29934号公報 特開2003-45117号公報 特開2005-11317号公報
 しかし、データアクセスと初期化処理との調整に関して、上記のような従来技術には改善の余地がある。例えば、書き込み要求があったときに、単に初期化処理を中断して指定された記憶領域にデータを書き込む方法では、初期化すべき記憶領域が細分化されてしまい、初期化処理の制御が煩雑になって非効率になるおそれがある。
 一側面では、本発明は、初期化処理の途中でデータアクセスを許容するシステムの処理効率を改善したデータアクセス方法およびプログラムを提供することを目的とする。
 一側面では、1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムが実行するデータアクセス方法が提供される。データアクセス方法では、初期化されていないブロック内の一部分である第1の記憶領域へのデータの書き込みを示すアクセス要求を受け付けることを許容する。アクセス要求を受け付けたとき、ブロック内のうちアクセス要求で指定された第1の記憶領域に対して初期化せずにデータを書き込み、また、ブロック内のうちアクセス要求で指定されなかった第2の記憶領域を初期化する。第1の記憶領域へのデータの書き込みと第2の記憶領域の初期化とによって、ブロックの初期化が完了したと判断する。
 また、一側面では、1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムが実行するデータアクセス方法が提供される。データアクセス方法では、初期化されていないブロック内の一部分である第1の記憶領域からのデータの読み出しを示すアクセス要求を受け付けることを許容する。アクセス要求を受け付けたとき、ブロック内のうちアクセス要求で指定された第1の記憶領域とアクセス要求で指定されなかった第2の記憶領域とを初期化し、初期化後の第1の記憶領域に相当するデータをアクセス結果として出力する。アクセス要求に応じて行った第1および第2の記憶領域の初期化によって、ブロックの初期化が完了したと判断する。
 また、一側面では、1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムに用いられるコンピュータに、以下の処理を実行させるプログラムが提供される。初期化されていないブロック内の一部分である第1の記憶領域へのデータの書き込みを示すアクセス要求を受け付ける。アクセス要求を受け付けたとき、ブロック内のうちアクセス要求で指定された第1の記憶領域に対して初期化せずにデータを書き込み、また、ブロック内のうちアクセス要求で指定されなかった第2の記憶領域を初期化する。第1の記憶領域へのデータの書き込みと第2の記憶領域の初期化とによって、ブロックの初期化が完了したと判断する。
 また、一側面では、1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムに用いられるコンピュータに、以下の処理を実行させるプログラムが提供される。初期化されていないブロック内の一部分である第1の記憶領域からのデータの読み出しを示すアクセス要求を受け付ける。アクセス要求を受け付けたとき、ブロック内のうちアクセス要求で指定された第1の記憶領域とアクセス要求で指定されなかった第2の記憶領域とを初期化し、初期化後の第1の記憶領域に相当するデータをアクセス結果として出力する。アクセス要求に応じて行った第1および第2の記憶領域の初期化によって、ブロックの初期化が完了したと判断する。
 一側面では、初期化処理の途中でデータアクセスを許容するシステムの処理効率が改善される。
 本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
第1の実施の形態のストレージシステムを示す図である。 第2の実施の形態のストレージシステムを示す図である。 サーバが備えるハードウェア例を示すブロック図である。 論理ディスクの構造例を示す図である。 セグメントの状態遷移を示す図である。 サーバで動作するソフトウェア例を示すブロック図である。 セグメントテーブルの例を示す図である。 VDISK管理テーブルの例を示す図である。 セグメント状態テーブルの例を示す図である。 チャンク管理ビットマップの例を示す図である。 VDISK作成の手順例を示すフローチャートである。 VDISK接続の手順例を示すフローチャートである。 アクセス処理の手順例を示すフローチャートである。 ライト変換の手順例を示すフローチャートである。 ストレージ装置に対するライト処理の例を示す図である。 リード変換の手順例を示すフローチャートである。 ストレージ装置に対するリード処理の例を示す図である。 初期化処理の手順例を示すフローチャートである。 チャンク初期化の手順例を示すフローチャートである。 論理ディスクの状態の変化例を示す図である。
 以下、本実施の形態を図面を参照して説明する。
 [第1の実施の形態]
 図1は、第1の実施の形態のストレージシステムを示す図である。第1の実施の形態のストレージシステムは、コンピュータ10および記憶装置21,22を有する。
 コンピュータ10は、ネットワークを介して記憶装置21,22と接続されている。記憶装置21,22は、例えば、ハードディスクなどの不揮発性の記録媒体を備える装置である。コンピュータ10は、クライアント30からのアクセス要求に応じて、記憶装置21,22へデータアクセスを行い、アクセス結果をクライアント30に応答する。クライアント30は、コンピュータ10以外の他のコンピュータでもよいし、コンピュータ10上で動作するソフトウェア(例えば、仮想マシン)でもよい。前者の場合、コンピュータ10は、ネットワークを介してクライアント30からアクセス要求を受信する。
 また、コンピュータ10は、記憶装置21,22が備える記憶領域を初期化する。初期化では、例えば、記憶領域に初期値として所定のビット列を書き込むことで、前に記憶されていたデータを消去して読み出せないようにする。コンピュータ10は、記憶装置21,22が備える記憶領域を複数のブロックに区分し、ブロック単位で初期化状況を管理する。ブロックは、固定サイズ(例えば、1Mバイト)の記憶領域でもよい。コンピュータ10は、例えば、各ブロックが初期化済か否かを示すビットマップを保持する。
 コンピュータ10は、CPU(Central Processing Unit)などのプロセッサ11と、RAM(Random Access Memory)などのメモリ12を有する。メモリ12は、データアクセスおよび初期化処理のためのプログラムを記憶し、プロセッサ11は、メモリ12に記憶されたプログラムを実行する。ただし、コンピュータ10は、プロセッサ11に代えてまたはプロセッサ11と共に、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの電子回路を備えてもよい。また、プロセッサ11は、プログラムの命令を実行する汎用的な演算器に代えてまたは汎用的な演算器と共に、データアクセスや初期化処理のための専用の回路を備えてもよい。
 ここで、第1の実施の形態のストレージシステムは、バックグラウンドの初期化処理の途中でも、クライアント30からアクセス要求を受け付けることを許容する。そこで、コンピュータ10は、以下に説明するように、初期化処理とデータアクセスとを調整する。
 コンピュータ10は、クライアント30から、初期化されていないブロック23内の一部分である記憶領域#1へのデータの書き込みを示すアクセス要求31を受け付ける。コンピュータ10は、アクセス要求31を受け付けたとき、ブロック23内のうちアクセス要求31で指定された記憶領域#1に対して、初期化せずにデータを書き込む。また、コンピュータ10は、アクセス要求31を受け付けたとき、ブロック23内のうちアクセス要求31で指定されなかった記憶領域#2を初期化する。記憶領域#2は、好ましくは、ブロック23内のうち指定された記憶領域#1以外の全ての記憶領域である。
 コンピュータ10は、アクセス要求31に対するアクセス結果(例えば、書き込みの成否)を、クライアント30に返信する。また、コンピュータ10は、アクセス要求31に応じて行った記憶領域#1へのデータの書き込みと記憶領域#2の初期化とによって、ブロック23の初期化が完了したと判断する。これによって、バックグラウンドで継続している初期化処理では、ブロック23が初期化対象から除外される。例えば、コンピュータ10は、ビットマップにおいて、ブロック23を示すビットを初期化済に設定する。
 また、コンピュータ10は、クライアント30から、初期化されていないブロック24内の一部分である記憶領域#1からのデータの読み出しを示すアクセス要求32を受け付ける。コンピュータ10は、アクセス要求32を受け付けたとき、ブロック24内のうちアクセス要求32で指定された記憶領域#1と指定されなかった記憶領域#2とを初期化する。記憶領域#1と記憶領域#2の和は、好ましくは、ブロック24の全体である。
 コンピュータ10は、初期化後の記憶領域#1に相当するデータを、アクセス要求32に対するアクセス結果としてクライアント30に出力する。このとき、コンピュータ10は、初期化後の記憶領域#1からデータを読み出してアクセス結果として出力してもよいし、記憶領域#1に書き込んだ初期値をメモリ12に保存しておき当該初期値をアクセス結果として出力してもよい。また、コンピュータ10は、アクセス要求32に応じて行った記憶領域#1,#2の初期化によって、ブロック24の初期化が完了したと判断する。これによって、その後はブロック24が初期化対象から除外される。
 なお、コンピュータ10は、バックグラウンドで複数のブロックを順次初期化する第1のプロセスと、アクセス要求31,32に応じてデータアクセスを行う第2のプロセスとの間で、ブロック単位に排他制御を行ってもよい。例えば、コンピュータ10は、各ブロックが現在操作されているか否かを示すビットマップを保持し、各ブロックが第1のプロセスと第2のプロセスの何れか一方のみによって初期化されるよう制御する。
 例えば、ブロック23,24が第1のプロセスによって初期化中のときは、コンピュータ10は、当該初期化が終了するまでアクセス要求31,32に応じたデータの書き込みまたは読み出しを保留する。一方、例えば、ブロック23,24に対して第2のプロセスによって初期化を伴うデータアクセスが行われていることを検知すると、コンピュータ10は、第1のプロセスによる初期化の対象からブロック23,24を除外する。
 第1の実施の形態のストレージシステムによれば、初期化されていないブロック23,24をクライアント30に割り当てることが可能となり、クライアント30が記憶領域の割り当てを待つ時間を減らすことができる。また、ブロック23への書き込みを示すアクセス要求31があったとき、指定された記憶領域#1については初期化が省略されて直接データが書き込まれるため、記憶領域#1を初期化してからデータを書き込む場合よりも応答遅延を減らすことができる。また、ブロック23の指定されていない記憶領域#2についても併せて初期化が行われるため、ブロック23全体を初期化済として扱うことができ、バックグラウンドで行う初期化処理の制御が簡潔となる。
 また、ブロック24からの読み出しを示すアクセス要求32があったとき、ブロック24が初期化されるため、初期化せずに初期値を応答する場合よりも、ブロック24が複数回アクセスされたときの負荷が軽減される。また、指定された記憶領域#1に加えて指定されなかった記憶領域#2についても初期化が行われるため、ブロック24全体を初期化済として扱うことができ、バックグラウンドで行う初期化処理の制御が簡潔となる。このように、第1の実施の形態のストレージシステムでは、データアクセスと初期化処理の効率を両立させることができ、ストレージシステムの処理効率が改善する。
 なお、上記の説明では、コンピュータ10が、書き込み要求に応じてブロック23を初期化された状態にする処理と、読み出し要求に応じてブロック24を初期化された状態にする処理の両方を行うこととした。しかし、コンピュータ10は、上記で説明した書き込み要求時の処理と読み出し要求時の処理の何れか一方のみを行うようにしてもよい。
 [第2の実施の形態]
 図2は、第2の実施の形態のストレージシステムを示す図である。第2の実施の形態のストレージシステムは、IO(Input/Output)サーバ100,100a、ストレージ装置200,200a、アクセスサーバ300,300aおよび管理サーバ400を有する。IOサーバ100,100aとストレージ装置200,200aとは、ネットワーク41を介して通信できる。IOサーバ100,100aとアクセスサーバ300,300aおよび管理サーバ400とは、ネットワーク42を介して通信できる。
 IOサーバ100,100aは、ストレージ装置200,200aへのアクセスを行うサーバコンピュータである。IOサーバ100,100aは、アクセスサーバ300,300aから論理アドレスを指定したアクセス要求を受け付けると、論理アドレスを物理アドレスに変換してストレージ装置200,200aにアクセスする。アクセス要求には、書き込み要求と読み出し要求とが含まれる。また、IOサーバ100,100aは、管理サーバ400からの指示に応じて、ストレージ装置200,200aが備える記憶領域をバックグラウンドで初期化する。記憶領域の初期化は、アクセス要求に応じてストレージ装置200,200aにアクセスする際に併せて行われることもある。
 ストレージ装置200,200aは、ハードディスクなどの不揮発性の記憶装置を備えており、記憶装置に記憶されるデータを管理するサーバコンピュータである。ストレージ装置200,200aは、IOサーバ100からのアクセスに応じて、記憶装置へのデータの書き込みおよび記憶装置からのデータの読み出しを実行する。
 アクセスサーバ300,300aは、1またはそれ以上の仮想マシンが動作するサーバコンピュータである。各仮想マシンは、ユーザからの要求に応じて作成され、それぞれ他の仮想マシンとは独立にOS(Operating System)やアプリケーションソフトウェアを実行する。アクセスサーバ300,300aでは、仮想マシンを制御するための仮想化ソフトウェア(例えば、ハイパーバイザ)が動作している。仮想化ソフトウェアは、ユーザからの要求に応じて、仮想マシンにCPUやRAMなどのハードウェア資源を割り当てて、仮想マシンを起動する。また、仮想化ソフトウェアは、各仮想マシンが、管理サーバ400によって割り当てられたストレージ装置200,200aの記憶領域に、IOサーバ100,100aを介してアクセスできるようにする。
 管理サーバ400は、ストレージ装置200,200aの記憶領域を管理する。管理サーバ400は、ユーザまたは管理者からの要求に応じて(例えば、コマンドの入力に応じて)、ストレージ装置200,200aの記憶領域の一部を、論理ディスクとして仮想マシンに割り当てる。そして、管理サーバ400は、仮想マシンがアクセスに使用するIOサーバを指定し、仮想マシンから論理ディスクにアクセスできるようにする。IOサーバの指定は、例えば、IOサーバ100,100aの負荷が偏らないように行う。
 また、管理サーバ400は、ユーザまたは管理者からの要求に応じて、仮想マシンに論理ディスクとして割り当てていた記憶領域を解放する。管理サーバ400は、セキュリティのため、解放した記憶領域を、他の仮想マシンに再割り当てする前または再割り当てした後、初期化するようIOサーバ100,100aに指示する(バックグラウンドの初期化処理)。ストレージ装置200,200aの記憶領域は、後述するように、セグメントと呼ばれる固定サイズの領域単位で仮想マシンに割り当てられる。
 なお、第2の実施の形態のストレージシステムは、例えば、データセンタに設置され、クラウドコンピューティングに利用される。図2の例では、ネットワーク41とネットワーク42を分離しているが、両者を同一のネットワークとしてもよい。また、第2の実施の形態では、IOサーバ100,100aとアクセスサーバ300,300aを分離しているが、IOサーバ100,100aの機能をアクセスサーバ300,300aの仮想化ソフトウェアに実装してもよい。IOサーバ100,100aは前述のコンピュータ10の一例であり、ストレージ装置200,200aは前述の記憶装置21,22の一例であり、アクセスサーバ300,300aは前述のクライアント30の一例である。
 図3は、サーバが備えるハードウェア例を示すブロック図である。IOサーバ100は、CPU101、RAM102、HDD(Hard Disk Drive)103、画像信号処理部104、入力信号処理部105、ディスクドライブ106および通信インタフェース107,108を有する。上記の各ユニットは、バスに接続されている。IOサーバ100a、ストレージ装置200,200a、アクセスサーバ300,300aおよび管理サーバ400も、IOサーバ100と同様のハードウェアを用いて実現できる。なお、CPU101は前述のプロセッサ11の一例であり、RAM102は前述のメモリ12の一例である。
 CPU101は、プログラムの命令を実行する演算器を含むプロセッサである。CPU101は、HDD103に記憶されているプログラムやデータの少なくとも一部を読み出し、RAM102に配置してプログラムを実行する。なお、IOサーバ100は、複数個のプロセッサを用いて、複数のプロセスを並列に実行してもよい。
 RAM102は、CPU101が実行するプログラムや情報処理に用いられるデータを一時的に記憶する揮発性メモリである。なお、IOサーバ100は、RAM以外の種類のメモリを備えてもよく、複数個のメモリを備えていてもよい。
 HDD103は、OSプログラムやアプリケーションプログラムなどのプログラムおよびデータを記憶する不揮発性の記憶装置である。HDD103は、CPU101からの命令に従って、内蔵の磁気ディスクに対してデータの読み書きを行う。なお、IOサーバ100は、HDD以外の種類の不揮発性の記憶装置(例えば、SSD(Solid State Drive)など)を備えてもよく、複数個の記憶装置を備えていてもよい。
 画像信号処理部104は、CPU101からの命令に従って、IOサーバ100に接続されたディスプレイ51に画像を出力する。ディスプレイ51としては、例えば、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイを用いることができる。
 入力信号処理部105は、IOサーバ100に接続された入力デバイス52から入力信号を取得し、CPU101に出力する。入力デバイス52としては、例えば、マウスやタッチパネルなどのポインティングデバイス、キーボードなどを用いることができる。
 ディスクドライブ106は、記録媒体53に記録されたプログラムやデータを読み取る駆動装置である。記録媒体53として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDDなどの磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。ディスクドライブ106は、例えば、CPU101からの命令に従って、記録媒体53から読み取ったプログラムやデータをRAM102またはHDD103に格納する。
 通信インタフェース107は、ネットワーク41を介してストレージ装置200,200aと通信を行うことが可能なインタフェースである。通信インタフェース108は、ネットワーク42を介してアクセスサーバ300,300aや管理サーバ400と通信を行うことが可能なインタフェースである。通信インタフェース107,108は、有線インタフェースでもよいし、無線インタフェースでもよい。
 図4は、論理ディスクの構造例を示す図である。前述のように、IOサーバ100,100aや管理サーバ400は、ストレージ装置200,200aの記憶領域を、複数のセグメントに分割して管理する。各セグメントは、固定サイズ(例えば、256Mバイト)の記憶領域である。例えば、ストレージ装置200の物理ディスク(例えば、HDD)の記憶領域がセグメント#10,#11,#12を含み、ストレージ装置200aの物理ディスクの記憶領域がセグメント#20,#21,#22を含む。
 管理サーバ400は、プールしてある複数のセグメントの中から、ユーザが要求したサイズに相当する1またはそれ以上のセグメントを選択し、論理ディスク(VDISK)としてまとめて仮想マシンに割り当てる。例えば、管理サーバ400は、ストレージ装置200のセグメント#10およびストレージ装置200aのセグメント#21,#22の3個のセグメントをまとめて、1つの論理ディスクを作成する。仮想マシンからは、割り当てられた論理ディスクが物理ディスクであるように見え、また、論理ディスクが複数のセグメントを含む場合には、これら複数のセグメントが連続した記憶領域であるように見える。仮想マシンは、論理ディスク上の記憶領域を、論理アドレスを用いて指定する。
 管理サーバ400は、記憶領域の初期化状況を、セグメント単位で管理する。一方で、IOサーバ100,100aは、記憶領域の初期化状況を、セグメント単位に加えて、セグメントより細かいチャンク単位でも管理する。各セグメントは、固定サイズ(例えば、1Mバイト)のチャンクを複数(例えば、256個)含む。IOサーバ100,100aは、あるセグメントをバックグラウンドで初期化するよう管理サーバ400から指示されたとき、初期化の進行をチャンク単位で管理し、仮想マシンからのアクセス要求の処理とバックグラウンドの初期化処理との間で、チャンク単位で排他制御を行う。なお、チャンクは、第1の実施の形態のブロック23,24の一例である。
 図5は、セグメントの状態遷移を示す図である。ストレージ装置200,200a上の各セグメントは、「FREE」,「VALID」,「TZERO」,「TZERO+」の4つの状態の何れかを取る。セグメントの状態は、管理サーバ400で管理される。
 「FREE」は、セグメント内の全てのチャンクが初期化済で、何れの論理ディスクにも使用されていないことを示す。「VALID」は、セグメント内の全てのチャンクが初期化済で、何れかの論理ディスクに使用されていることを示す。「TZERO」は、セグメント内の少なくとも1つのチャンクの未初期化で、何れの論理ディスクにも使用されていないことを示す。「TZERO+」は、セグメント内の少なくとも1つのチャンクの未初期化で、何れかの論理ディスクに使用されていることを示す。
 FREEのセグメントを用いて論理ディスクが作成されると、当該セグメントの状態はFREEからVALIDに遷移する。VALIDのセグメントを含む論理ディスクが削除されると、当該セグメントの状態はVALIDからTZEROに遷移する。TZEROのセグメント内の全てのチャンクが初期化されると、当該セグメントの状態がTZEROからFREEに遷移する。このように、管理サーバ400が新たに論理ディスクを作成するときは、原則として、初期化が完了しているFREEのセグメントが選択される。
 ただし、論理ディスクの作成と削除が頻繁に行われて、バックグラウンドの初期化処理が間に合わずにFREEのセグメントが不足すると、TZEROのセグメントを使用して論理ディスクが作成されることもある。初期化が完了していないTZEROのセグメントを用いて論理ディスクが作成されると、当該セグメントの状態はTZEROからTZERO+に遷移する。TZERO+のセグメント内の全てのチャンクが初期化されると、当該セグメントの状態がTZERO+からVALIDに遷移する。TZERO+のセグメント内の各チャンクは、バックグラウンドの初期化処理によって初期化されることもあるし、仮想マシンからのアクセス要求を契機として初期化されることもある。
 図6は、サーバで動作するソフトウェア例を示すブロック図である。第2の実施の形態の以下の説明では、アクセスサーバ300で動作する仮想マシンが、IOサーバ100を介してストレージ装置200,200aにアクセスする場合を考える。
 IOサーバ100は、テーブル記憶部110、IO変換部120および初期化実行部130を有する。テーブル記憶部110は、例えば、RAM102上の記憶領域として実現される。IO変換部120および初期化実行部130は、例えば、プログラムのモジュールとして実現される。IOサーバ100aも、同様のブロック構成により実現できる。
 テーブル記憶部110は、アクセスに使用するIOサーバとしてIOサーバ100が指定された論理ディスクについて、セグメント毎の初期化状況を示すセグメント状態テーブルを記憶する。また、テーブル記憶部110は、初期化が完了していないセグメントについて、チャンク毎の初期化状況を示す初期化ビットマップと、チャンク毎の排他フラグを示す排他ビットマップと、を含むチャンク管理ビットマップを記憶する。
 IO変換部120は、アクセスサーバ300からアクセス要求を受け付け、アクセス要求で指定された論理アドレスを物理アドレスに変換し、ストレージ装置200,200aにデータの書き込みまたは読み出しのコマンドを送信する。このとき、IO変換部120は、テーブル記憶部110に記憶されたセグメント状態テーブルやチャンク管理ビットマップを参照して、アクセスする記憶領域が未初期化のチャンクを含むか判断する。アクセスする記憶領域が未初期化のチャンクを含む場合、IO変換部120は、アクセス要求の処理に伴ってアクセス先のチャンクが初期化済になるよう制御する。
 初期化実行部130は、管理サーバ400から初期化要求を受け付け、初期化要求で指定されたセグメントについて、チャンク単位でバックグラウンドの初期化処理を進める。チャンクの初期化では、初期化実行部130は、初期値である所定のビット列をチャンク全体に書き込むコマンドを、ストレージ装置200,200aに送信する。このとき、初期化実行部130は、テーブル記憶部110に記憶されたセグメント状態テーブルやチャンク管理ビットマップを参照して、未初期化でありIO変換部120でアクセス中ではないチャンクを検索し、次に初期化するチャンクとして選択する。
 ストレージ装置200の物理ディスク(例えば、HDD)上には、データ領域210が形成される。ストレージ装置200aの物理ディスク上には、データ領域210aおよび管理領域220が形成される。データ領域210,210aはそれぞれ複数のセグメントを含み、各セグメントは複数のチャンクを含む。IOサーバ100から物理アドレスを指定したアクセスがあると、データ領域210,210aに対してデータの書き込みまたは読み出しが行われる。管理領域220には、IOサーバ100が障害によりテーブル記憶部110に記憶された情報を失う場合に備えて、少なくともテーブル記憶部110に記憶された初期化ビットマップが、IOサーバ100によってバックアップされる。
 アクセスサーバ300は、アクセス部310を有する。アクセス部310は、例えば、プログラムのモジュールとして実現できる。アクセス部310は、仮想マシンがアクセス要求を発行すると、当該仮想マシンに割り当てられた論理ディスクを担当するIOサーバ(ここでは、IOサーバ100)に、アクセス要求を転送する。論理ディスクとIOサーバとの対応関係は、論理ディスクを仮想マシンから認識可能にする(論理ディスクを仮想マシンに接続する)ときに、管理サーバ400から通知される。
 管理サーバ400は、テーブル記憶部410、VDISK管理部420および初期化制御部430を有する。テーブル記憶部410は、例えば、RAMまたはHDD上の記憶領域として実現できる。VDISK管理部420および初期化制御部430は、例えば、プログラムのモジュールとして実現できる。
 テーブル記憶部410は、セグメントの状態と論理ディスクとしてのセグメントの使用状況とを示すセグメントテーブルを記憶する。また、テーブル記憶部110は、論理ディスクとIOサーバとの対応関係を示すVDISK管理テーブルを記憶する。
 VDISK管理部420は、ユーザまたは管理者によって管理サーバ400に入力されたコマンドに応じて、テーブル記憶部410に記憶されたセグメントテーブルを参照して論理ディスクを作成する。また、VDISK管理部420は、コマンドに応じて、作成した論理ディスクを仮想マシンに接続する。このとき、VDISK管理部420は、当該論理ディスクを担当するIOサーバ(ここでは、IOサーバ100)を選択し、選択したIOサーバとアクセスサーバ300とにその旨を通知する。また、VDISK管理部420は、コマンドに応じて、論理ディスクを削除してセグメントの割り当てを解放する。
 初期化制御部430は、バックグラウンドの初期化処理を制御する。初期化制御部430は、テーブル記憶部410に記憶されたセグメントテーブルを監視して、未初期化であるTZEROまたはTZERO+のセグメントを選択し、IOサーバ100,100aに初期化要求を送信する。このとき、初期化制御部430は、未割り当てのTZEROのセグメントよりも割り当て済のTZERO+を優先的に選択する。TZEROのセグメントの初期化は、任意のIOサーバに要求してもよい。一方、TZERO+のセグメントの初期化は、当該セグメントの属する論理ディスクを担当するIOサーバに要求する。
 図7は、セグメントテーブルの例を示す図である。図7に示すセグメントテーブル411は、管理サーバ400のテーブル記憶部410に記憶されている。セグメントテーブル411は、セグメントID、ストレージ、状態およびVDISKの項目を含む。
 セグメントIDは、セグメントを識別するための識別子である。ストレージの項目は、セグメントの属する物理ディスクを示し、物理ディスクの識別子が設定される。状態の項目は、セグメントの状態を示し、FREE,VALID,TZERO,TZERO+の何れかが設定される。VDISKの項目は、セグメントの属する論理ディスクを示し、論理ディスクを識別するための識別子が設定される。論理ディスクの識別子は、FREEおよびTZEROのセグメントには設定されない。VDISK管理部420により状態の項目とVDISKの項目が更新され、初期化制御部430により状態の項目が更新される。
 図8は、VDISK管理テーブルの例を示す図である。図8に示すVDISK管理テーブル412は、管理サーバ400のテーブル記憶部410に記憶されている。VDISK管理テーブル412は、VDISK-IDおよびIOサーバの項目を含む。
 VDISK-IDは、論理ディスクの識別子である。IOサーバの項目は、論理ディスクを担当するIOサーバを示し、IOサーバを識別するための識別子(例えば、IOサーバのホスト名やIP(Internet Protocol)アドレスなど)が設定される。論理ディスクが仮想マシンに接続されるときや論理ディスクが削除されるときに、VDISK管理部420により、VDISK-IDの項目とIOサーバの項目が更新される。
 図9は、セグメント状態テーブルの例を示す図である。図9に示すセグメント状態テーブル111は、IOサーバ100のテーブル記憶部110に記憶されている。1つのセグメント状態テーブルは、1つの論理ディスクに対応する。セグメント状態テーブル111は、ある論理ディスクが仮想マシンに接続されたときに、管理サーバ400からの指示でIOサーバ100のテーブル記憶部110に作成される。セグメント状態テーブル111は、インデックスおよび初期化フラグの項目を含む。
 インデックスは、論理ディスク内においてセグメントを識別するための識別子である。例えば、論理ディスク内のセグメントには、論理アドレスが小さい順に0,1,2,…と非負整数のインデックスが付与される。初期化フラグの項目は、セグメントの初期化が完了しているか否かを示す。例えば、初期化フラグ=0は初期化が完了していないことを示し、初期化フラグ=1は初期化が完了していることを示す。初期化が完了したときに、初期化実行部130により、初期化フラグの項目が更新される。
 なお、図9に示したセグメント状態テーブル111は、初期化済のセグメントと未初期化のセグメントの両方を表現しているが、セグメント状態テーブルは、初期化が完了していないセグメントのみのリストまたは完了したセグメントのみのリストであってもよい。
 図10は、チャンク管理ビットマップの例を示す図である。図10に示すチャンク管理ビットマップ112は、IOサーバ100のテーブル記憶部110に記憶されている。1つのチャンク管理ビットマップは、初期化が完了していないセグメント1つに対応する。チャンク管理ビットマップ112は、論理ディスクが仮想マシンに接続されたとき、管理サーバ400からの指示でIOサーバ100のテーブル記憶部110に作成される。チャンク管理ビットマップ112は、排他ビットマップと初期化ビットマップとを含む。
 排他ビットマップは、1つのチャンクにつき1つの排他ビットを含む。複数の排他ビットは、セグメント内でチャンクを識別するための識別子であるチャンクIDの昇順に並んでいる。例えば、1つのセグメントが256個のチャンクを含むとき、排他ビットマップは256ビットで表現される。排他ビット=0は操作中でないことを示し、排他ビット=1は操作中であることを示す。アクセス要求に応じてアクセスするときに、IO変換部120により排他ビット=1が設定される。また、アクセス要求によらずバックグラウンドで初期化するとき、初期化実行部130により排他ビット=1が設定される。
 初期化ビットマップは、1つのチャンクにつき1つの初期化ビットを含む。複数の初期化ビットは、チャンクIDの昇順に並んでいる。例えば、1つのセグメントが256個のチャンクを含むとき、初期化ビットマップは256ビットで表現される。初期化ビット=0は未初期化を示し、初期化ビット=1は初期化済を示す。初期化されたときに、IO変換部120または初期化実行部130により、初期化ビットが更新される。
 なお、初期化ビットマップは、ストレージ装置200aの管理領域220にバックアップされる。また、あるセグメント内の全てのチャンクが初期化されて(例えば、全ての初期化ビットが1になって)当該セグメントの初期化が完了したときは、そのセグメントに対応する排他ビットマップおよび初期化ビットマップは消去してもよい。また、チャンク管理ビットマップ112は、テーブル形式で作成されてもよい。
 図11は、VDISK作成の手順例を示すフローチャートである。図11の処理は、管理サーバ400がVDISK作成のコマンドを受け付けたときに実行される。
 (ステップS11)VDISK管理部420は、仮想マシンのユーザまたはストレージシステムの管理者が入力したVDISK作成のコマンドを受け付ける。VDISK作成のコマンドでは、ユーザが割り当てを希望するセグメントの数が指定される。VDISK管理部420は、新たに作成する論理ディスクに識別子(VDISK-ID)を付与する。
 (ステップS12)VDISK管理部420は、テーブル記憶部410に記憶されたセグメントテーブル411を検索し、FREE(未割り当てかつ初期化済)のセグメントがあるか判断する。FREEのセグメントがある場合は処理をステップS13に進め、FREEのセグメントがない場合は処理をステップS14に進める。
 (ステップS13)VDISK管理部420は、仮想マシンのためにFREEのセグメントを1つ確保し、セグメントテーブル411に登録された当該セグメントの状態をFREEからVALIDに更新する。また、VDISK管理部420は、セグメントテーブル411に論理ディスクの識別子を登録する。そして、処理をステップS16に進める。
 (ステップS14)VDISK管理部420は、テーブル記憶部410に記憶されたセグメントテーブル411を検索し、TZERO(未割り当てかつ未初期化)のセグメントがあるか判断する。TZEROのセグメントがある場合は処理をステップS15に進め、TZEROのセグメントがない場合は処理をステップS17に進める。
 (ステップS15)VDISK管理部420は、仮想マシンのためにTZEROのセグメントを1つ確保し、セグメントテーブル411に登録された当該セグメントの状態をTZEROからTZERO+に更新する。また、VDISK管理部420は、セグメントテーブル411に論理ディスクの識別子を登録する。
 (ステップS16)VDISK管理部420は、VDISK作成のコマンドで指定された数のセグメントを確保したか判断する。必要数のセグメントを確保した場合は処理を終了し、必要数のセグメントを確保していない場合は処理をステップS12に進める。
 (ステップS17)VDISK管理部420は、ステップS13,S15で確保したセグメントの状態を元に戻すことで、これまで行った処理をロールバックする。このとき、VDISK管理部420は、セグメントテーブル411に登録された状態を更新し、ステップS11で定義した論理ディスクの識別子をセグメントテーブル411から削除する。なお、VDISK管理部420は、ロールバックのため、例えば、セグメントテーブル411の状態の更新履歴を論理ディスクに属するセグメントが確定するまで保持する。
 図12は、VDISK接続の手順例を示すフローチャートである。図12の処理は、管理サーバ400がVDISK接続のコマンドを受け付けたときに実行される。
 (ステップS21)VDISK管理部420は、仮想マシンのユーザまたはストレージシステムの管理者が入力したVDISK接続のコマンドを受け付ける。VDISK接続のコマンドでは、作成済の論理ディスクの識別子が指定される。
 (ステップS22)VDISK管理部420は、IOサーバ100,100aから、指定された論理ディスクを担当するIOサーバを選択する。IOサーバの選択では、好ましくは、IOサーバ100,100aの負荷が偏らないようにする。例えば、ラウンドロビン方式で前回と異なるIOサーバを選択する、VDISK管理テーブル412を参照して現在担当している論理ディスクの数が最も少ないIOサーバを選択する、IOサーバ100,100aに現在の負荷を問い合わせて選択するなどの方法が考えられる。なお、以下の説明では、ここでIOサーバ100が選択されたものとする。
 (ステップS23)VDISK管理部420は、ステップS22で選択したIOサーバ100のIO変換部120に、論理アドレスと物理アドレスの対応関係を設定する。論理ディスクの先頭には所定の論理アドレス(例えば、0番)が付与され、論理ディスク内の先頭のセグメントから末尾のセグメントに向かって論理アドレスが増加する。1つの論理ディスク内では、論理アドレスと物理アドレスが1対1に対応する。論理アドレスと物理アドレスの対応関係は、例えば、セグメントの順序を指定することで特定できる。
 (ステップS24)VDISK管理部420は、論理ディスクに属する各セグメントの初期化が完了しているか否かをIOサーバ100に通知する。IOサーバ100は、通知に基づいてセグメント状態テーブル111を生成し、テーブル記憶部110に格納する。また、IOサーバ100は、初期化が完了していないセグメント毎にチャンク管理ビットマップ112を生成し、テーブル記憶部110に格納する。このとき、排他ビットマップの全ビットと初期化ビットマップの全ビットは、0に設定されている。
 (ステップS25)IOサーバ100は、ステップS24で生成したチャンク管理ビットマップ112に含まれる初期化ビットマップを、ストレージ装置200aの管理領域220にコピーすることでバックアップする。なお、IOサーバ100は、初期化ビットマップに加えてセグメント状態テーブル111をバックアップしてもよく、また、チャンク管理ビットマップ112全体をバックアップしてもよい。IOサーバ100は、ステップS23~S25の処理が成功したか否かを管理サーバ400に報告する。
 (ステップS26)VDISK管理部420は、ステップS22で選択したIOサーバ100の設定が成功したかを、IOサーバ100からの応答によって判断する。設定が成功した場合は、VDISK管理部420は、テーブル記憶部410に記憶されたVDISK管理テーブル412に論理ディスクとIOサーバ100との対応を登録し、IOサーバ100を割り当てたことをアクセスサーバ300に通知する。そして、処理を終了する。設定が失敗した場合は、処理をステップS27に進める。
 (ステップS27)VDISK管理部420は、ステップS23~S25の処理をロールバックする。このとき、VDISK管理部420は、例えば、論理アドレスと物理アドレスの対応関係をIO変換部120から抹消し、セグメント状態テーブル111およびチャンク管理ビットマップ112の削除をIOサーバ100に指示する。
 なお、作成された論理ディスクは、仮想マシンからの切断および再接続を繰り返すこともできる。これにより、仮想マシンから論理ディスクを認識できる状態と認識できない状態とを切り替えることができる。また、図11,12の手順例では、IOサーバの割り当てとセグメント状態テーブル111およびチャンク管理ビットマップ112の作成を、論理ディスクの接続時に行っているが、論理ディスクの作成時に行うようにしてもよい。
 図13は、アクセス処理の手順例を示すフローチャートである。図13の処理は、IOサーバ100がアクセスサーバ300からアクセス要求を受け付けたときに実行される。IOサーバ100aでも、IOサーバ100と同様の処理が実行され得る。なお、ここでは、ストレージ装置200上のセグメントにアクセスする場合を考える。
 (ステップS31)IO変換部120は、仮想マシンが発行したアクセス要求をアクセスサーバ300から受信する。アクセス要求には、データの書き込みを示す書き込み要求とデータの読み出しを示す読み出し要求とがある。アクセス要求では、アクセスする記憶領域を、例えば、先頭の論理アドレスと記憶領域の長さとを用いて指定する。
 (ステップS32)IO変換部120は、アクセス要求で指定された記憶領域の属するセグメントを特定し、テーブル記憶部110に記憶されたセグメント状態テーブル111を参照し、セグメントの状態がTZERO+であるか判断する。TZERO+である場合は、処理をステップS33に進める。TZERO+でない場合(VALIDである場合)は、IO変換部120は、論理アドレスを物理アドレスに変換し、アクセス要求に従った通常のコマンドをストレージ装置200に送信して、処理をステップS41に進める。
 (ステップS33)IO変換部120は、アクセス要求で指定された記憶領域の少なくとも一部を含む1またはそれ以上のチャンクを特定する。そして、IO変換部120は、テーブル記憶部110に記憶されたチャンク管理ビットマップ112を参照し、先頭のチャンクから末尾のチャンクまでの全ての排他ビットが0であるか(操作中のチャンクがないか)判断する。操作中のチャンクがない場合は処理をステップS35に進め、操作中のチャンクが少なくとも1つある場合は処理をステップS34に進める。
 (ステップS34)IO変換部120は、ステップS31で受け付けたアクセス要求をデータアクセス用のキューに入れて、アクセスする全てのチャンクの排他ビットが0になる(アクセス禁止が解除される)のを待つ。そして、処理をステップS33に進める。なお、データアクセス用のキューは、例えば、RAM102上に作成されている。
 (ステップS35)IO変換部120は、チャンク管理ビットマップ112において、アクセスする先頭から末尾までの各チャンクの排他ビットを1に設定する。
 (ステップS36)IO変換部120は、ステップS31で受け付けたアクセス要求が書き込み要求であるかを判断する。書き込み要求である場合は処理をステップS37に進め、書き込み要求でない(読み出し要求である)場合は処理をステップS38に進める。
 (ステップS37)IO変換部120は、論理アドレスを物理アドレスに変換して、アクセス要求で指定された記憶領域にデータを書き込むためのライトコマンドをストレージ装置200に送信する。このとき、IO変換部120は、アクセスするチャンクの全体が初期化済になるように、データを書き込む記憶領域以外の領域を併せて初期化することがある。アクセス要求からライトコマンドへの変換については、後でより詳細に説明する。
 (ステップS38)IO変換部120は、論理アドレスを物理アドレスに変換して、アクセス要求で指定された記憶領域からデータを読み出すためのリードコマンドをストレージ装置200に送信する。このとき、IO変換部120は、アクセスするチャンクの全体が初期化済になるように、そのチャンクの記憶領域を併せて初期化する。アクセス要求からリードコマンドへの変換については、後でより詳細に説明する。
 (ステップS39)IO変換部120は、チャンク管理ビットマップ112において、アクセスが完了した先頭から末尾までの各チャンクの排他ビットを0に戻す。
 (ステップS40)IO変換部120は、データアクセス用のキューに対して、排他ビットが1から0になった(アクセス禁止が解除された)チャンクがあることを通知する。これにより、キューに格納されている処理待ちのアクセス要求が処理され得る。
 (ステップS41)IO変換部120は、ステップS37の書き込み処理またはステップS38の読み出し処理が成功したか判断する。成功した場合、IO変換部120は、書き込みが成功した旨または読み出したデータを、アクセス要求を発行したアクセスサーバ300に返信し、処理を終了する。失敗した場合、処理をステップS42に進める。
 (ステップS42)IO変換部120は、書き込みまたは読み出しが失敗した旨を、アクセス要求を発行したアクセスサーバ300に返信し、処理を終了する。このとき、IO変換部120は、アクセスが失敗した原因をアクセスサーバ300に通知してもよい。
 図14は、ライト変換の手順例を示すフローチャートである。図14に示す処理は、図13に示したフローチャートのステップS37において実行される。
 (ステップS371)IO変換部120は、テーブル記憶部110に記憶されたチャンク管理ビットマップ112を参照し、先頭のチャンクの初期化ビットが0であるか(先頭のチャンクが未初期化であるか)判断する。未初期化の場合は処理をステップS372に進め、初期化済の場合は処理をステップS374に進める。
 (ステップS372)IO変換部120は、先頭のチャンクの記憶領域のうち、データを書き込む領域として指定されていない記憶領域(非ライト領域)を算出し、算出した記憶領域を初期化する。例えば、IO変換部120は、算出した記憶領域に所定のビット列(例えば、オール0)を書き込むためのコマンドを、ストレージ装置200に送信する。このとき、データを書き込む記憶領域(ライト領域)については、初期化しなくてよい。
 (ステップS373)IO変換部120は、ステップS372の初期化が成功したか判断する。成功した場合(例えば、ストレージ装置200から成功応答を受信した場合)は処理をステップS374に進め、失敗した場合(例えば、ストレージ装置200からエラー応答を受信した場合)はアクセス要求からライトコマンドへの変換を中止する。
 (ステップS374)IO変換部120は、テーブル記憶部110に記憶されたチャンク管理ビットマップ112を参照し、末尾のチャンクの初期化ビットが0であるか(末尾のチャンクが未初期化であるか)判断する。未初期化の場合は処理をステップS375に進め、初期化済の場合は処理をステップS377に進める。
 (ステップS375)IO変換部120は、末尾のチャンクの記憶領域のうち、データを書き込む領域として指定されていない記憶領域(非ライト領域)を算出し、算出した記憶領域を初期化する。例えば、IO変換部120は、算出した記憶領域に所定のビット列(例えば、オール0)を書き込むためのコマンドを、ストレージ装置200に送信する。このとき、データを書き込む記憶領域(ライト領域)については、初期化しなくてよい。
 (ステップS376)IO変換部120は、ステップS375の初期化が成功したか判断する。成功した場合(例えば、ストレージ装置200から成功応答を受信した場合)は処理をステップS377に進め、失敗した場合(例えば、ストレージ装置200からエラー応答を受信した場合)はアクセス要求からライトコマンドへの変換を中止する。
 (ステップS377)IO変換部120は、論理アドレスを物理アドレスに変換して、アクセス要求に従ったライトコマンドをストレージ装置200に送信する。なお、上記のステップS371の前に論理アドレスから物理アドレスへの変換を行い、物理アドレスに基づいてチャンクの特定および初期化する記憶領域の算出を行ってもよい。
 (ステップS378)IO変換部120は、ステップS377のライトコマンドに対して、ストレージ装置200から書き込み成功の応答を受信したか判断する。書き込み成功の場合は処理をステップS379に進め、書き込み失敗の場合は処理を終了する。
 (ステップS379)IO変換部120は、チャンク管理ビットマップ112において、アクセスが完了した先頭から末尾までの各チャンクの初期化ビットを1に設定する。また、IO変換部120は、ストレージ装置200aの管理領域220にバックアップしていた初期化ビットマップを更新する。これにより、当該チャンクはバックグラウンドの初期化処理によって初期化しなくて済む。なお、上記のステップS371~S373の処理とステップS374~S376の処理とステップS377,S378の処理は、任意の順序で実行してもよいし並列に実行することも可能である。
 図15は、ストレージ装置に対するライト処理の例を示す図である。ここでは、データを書き込むライト領域が4つのチャンク(チャンク#1~#4)に跨がっており、チャンク#1,#2,#4が未初期化で、チャンク#3が初期化済であるとする。このとき、アクセスする先頭のチャンク#1の中のデータを書き込まない非ライト領域が初期化され、アクセスする末尾のチャンク#4の中のデータを書き込まない非ライト領域が初期化される。データを書き込むライト領域については、初期化せず直接データを書き込めばよい。ライトコマンドでは、例えば、アクセス要求で指定された先頭の論理アドレスに対応する物理アドレスと、アクセス要求で指定された長さとが、ストレージ装置200に通知される。以上により、未初期化であったチャンク#1,#2,#4が初期化済となる。
 ここで、先頭のチャンクの非ライト領域は、例えば、以下の手順によって算出できる。セグメントの先頭アドレス(オフセット)をs、チャンク1つの長さをc、ライト領域の先頭アドレスをp、ライト領域の長さをlenとする。まず、先頭のチャンクの先頭アドレスp1を、p1=s+(p-s)/c*cによって算出する。除算は小数点以下を切り捨てるものとする。そして、先頭側の非ライト領域の長さlen1を、len1=p-p1によって算出する。先頭側の非ライト領域の初期化では、例えば、算出したp1,len1を含むコマンドが、IOサーバ100からストレージ装置200に送信される。
 また、末尾のチャンクの非ライト領域は、例えば、以下の手順によって算出できる。まず、末尾側の非ライト領域の先頭アドレス(ライト領域の末尾の次を示すアドレス)p2を、p2=p+lenによって算出する。そして、末尾側の非ライト領域の長さlen2を、len2=s+{p2+(c-1)-s}/c*c-p2によって算出する。末尾側の非ライト領域の初期化では、例えば、算出したp2,len2を含むコマンドが、IOサーバ100からストレージ装置200に送信される。
 図16は、リード変換の手順例を示すフローチャートである。図16に示す処理は、図13に示したフローチャートのステップS38において実行される。
 (ステップS381)IO変換部120は、テーブル記憶部110に記憶されたチャンク管理ビットマップ112を参照して、アクセスするチャンクの中から初期化ビットが0であるチャンク(未初期化のチャンク)を検索する。
 (ステップS382)IO変換部120は、ステップS381で検索した各チャンクの全体を初期化する。例えば、IO変換部120は、検索した各チャンクに所定のビット列(例えば、オール0)を書き込むためのコマンドを、ストレージ装置200に送信する。当該コマンドでは、例えば、各チャンクの先頭アドレスとチャンクサイズが指定される。
 (ステップS383)IO変換部120は、チャンク管理ビットマップ112において、初期化した各チャンクの初期化ビットを1に設定し、また、ストレージ装置200aの管理領域220にバックアップしていた初期化ビットマップを更新する。これにより、当該チャンクはバックグラウンドの初期化処理によって初期化しなくて済む。
 (ステップS384)IO変換部120は、論理アドレスを物理アドレスに変換して、アクセス要求に従ったリードコマンドをストレージ装置200に送信する。なお、上記のステップS381の前に論理アドレスから物理アドレスへの変換を行い、物理アドレスに基づいてチャンクの特定および初期化する記憶領域の算出を行ってもよい。
 (ステップS385)IO変換部120は、ステップS384のリードコマンドに対して、読み出されたデータをストレージ装置200から正常に受信したか判断する。読み出し成功の場合は処理をステップS386に進め、読み出し失敗の場合は処理を終了する。
 (ステップS386)IO変換部120は、ステップS382の初期化が全て成功したか判断する。全てのチャンクについて初期化が成功した場合は処理を終了し、少なくとも1つのチャンクについて初期化が失敗した場合は処理をステップS387に進める。
 (ステップS387)IO変換部120は、初期化が失敗したチャンクから読み出されたデータを破棄し、初期値としての所定のビット列(例えば、オール0)に置き換える。データの置き換えは、例えば、アクセスサーバ300に返信するためのデータを格納するRAM102上の領域を初期値で上書きすることによって実現される。これにより、初期化前のデータが誤ってアクセスサーバ300に送信されることを抑制できる。なお、図16の手順例では、未初期化のチャンクについて、初期化してからデータの読み出しを行っているが、読み出しを行わずに、アクセスサーバ300に送信するデータとして、初期化直後のチャンクに格納されている初期値をRAM102上に用意してもよい。
 図17は、ストレージ装置に対するリード処理の例を示す図である。ここでは、データを読み出す記憶領域(リード領域)が4つのチャンク(チャンク#1~#4)に跨がっており、図15の場合と同様に、チャンク#1,#2,#4が未初期化で、チャンク#3が初期化済であるとする。このとき、リード領域の一部であるか否かにかかわらず、アクセスする未初期化のチャンク#1,#2,#4全体が初期化される。リードコマンドでは、例えば、アクセス要求で指定された先頭の論理アドレスに対応する物理アドレスと、アクセス要求で指定された長さとが、ストレージ装置200に通知される。以上により、未初期化であったチャンク#1,#2,#4が初期化済となる。
 図18は、初期化処理の手順例を示すフローチャートである。図18の処理は、IOサーバ100において定期または不定期に繰り返し実行される。IOサーバ100aでも、IOサーバ100と同様の処理が実行され得る。なお、ここでは、ストレージ装置200上のセグメントをバックグラウンドで初期化する場合を考える。
 (ステップS51)管理サーバ400から受信した初期化要求は、IOサーバ100が備える管理用のキューに格納されている。管理用のキューは、例えば、RAM102上に作成されている。初期化実行部130は、キューから初期化要求を1つ抽出する。各初期化要求では、初期化すべきセグメントが1つ指定されている。
 (ステップS52)初期化実行部130は、テーブル記憶部110に記憶されたセグメント状態テーブル111を参照し、初期化要求で指定されたセグメントの初期化フラグが1であるか(セグメントの状態が既にVALIDか)判断する。VALIDの場合は処理をステップS59に進め、TZERO+の場合は処理をステップS53に進める。
 (ステップS53)初期化実行部130は、指定されたセグメントに含まれるチャンクを1つ選択する。例えば、初期化実行部130は、チャンクIDが小さい順に選択する。
 (ステップS54)初期化実行部130は、ステップS53で選択したチャンクが初期化済になるようにする。チャンクの初期化については、後でより詳細に説明する。
 (ステップS55)初期化実行部130は、指定されたセグメントにステップS53で選択していないチャンクがあるか判断する。未選択のチャンクがある場合は処理をステップS53に進め、全てのチャンクを選択済の場合は処理をステップS56に進める。
 (ステップS56)初期化実行部130は、セグメント状態テーブル111において、指定されたセグメントの初期化フラグを1(VALID)に設定する。また、初期化実行部130は、指定されたセグメントの初期化が完了したことを管理サーバ400に通知する。これにより、テーブル記憶部410に記憶されたセグメントテーブル411においても、当該セグメントの状態がVALIDに設定される。
 (ステップS57)初期化実行部130は、初期化が完了したセグメントについてのチャンク管理ビットマップ112を、テーブル記憶部110から削除する。
 (ステップS58)初期化実行部130は、ストレージ装置200aの管理領域220にバックアップしてある初期化ビットマップを削除する。なお、ステップS56~S58の処理は、任意の順序で実行してもよいし、並列に実行することも可能である。
 (ステップS59)初期化実行部130は、管理用のキューが空であるか判断する。管理要のキューが空の場合は処理を終了し、管理用のキューに初期化要求が残っている場合は処理をステップS51に進めて、次の初期化要求を処理する。
 図19は、チャンク初期化の手順例を示すフローチャートである。図19に示す処理は、図18に示したフローチャートのステップS54において実行される。
 (ステップS541)初期化実行部130は、テーブル記憶部110に記憶されたチャンク管理ビットマップ112を参照し、選択したチャンクの排他ビットが0であるか(アクセスが禁止されていないか)判断する。排他ビットが0の場合は処理をステップS542に進め、排他ビットが1の場合は処理を終了する。なお、このとき排他ビットが1であるチャンクは、IO変換部120によって初期化されることになる。
 (ステップS542)初期化実行部130は、チャンク管理ビットマップ112を参照し、選択したチャンクの初期化ビットが0であるか(チャンクが未初期化か)判断する。初期化ビットが0の場合は、処理をステップS543に進める。初期化ビットが1の場合は、選択したチャンクは初期化済であるため、処理を終了する。
 (ステップS543)初期化実行部130は、チャンク管理ビットマップ112において、チャンクの排他ビットを1に設定し、IO変換部120によるアクセスを禁止する。
 (ステップS544)初期化実行部130は、選択したチャンクの全体を初期化する。例えば、初期化実行部130は、当該チャンクの先頭から末尾まで所定のビット列(例えば、オール0)を書き込むためのコマンドを、ストレージ装置200に送信する。当該コマンドでは、例えば、チャンクの先頭アドレスとチャンクサイズが指定される。
 (ステップS545)初期化実行部130は、チャンク管理ビットマップ112において、初期化したチャンクの初期化ビットを1に設定し、また、ストレージ装置200aの管理領域220にバックアップしていた初期化ビットマップを更新する。
 (ステップS546)初期化実行部130は、ステップS544の初期化が成功したか判断する。成功した場合(例えば、ストレージ装置200から成功応答を受信した場合)は処理をステップS548に進め、失敗した場合(例えば、ストレージ装置200からエラー応答を受信した場合)は処理をステップS547に進める。
 (ステップS547)初期化実行部130は、管理サーバ400にエラーを報告する。
 (ステップS548)初期化実行部130は、チャンク管理ビットマップ112において、チャンクの排他ビットを1に設定し、IO変換部120によるアクセスを解禁する。
 (ステップS549)初期化実行部130は、データアクセス用のキューに対して、排他ビットが1から0になった(アクセス禁止が解除された)チャンクがあることを通知する。これにより、キューに格納されている処理待ちのアクセス要求が処理され得る。
 図20は、論理ディスクの状態の変化例を示す図である。図20の例では、FREEのセグメント#10とTZEROのセグメント#21,#22を用いて、論理ディスクが作成される。セグメント#10は、論理ディスクの1番目(インデックス=0)に位置付けされて、状態がFREEからVALIDに遷移する。セグメント#21は、論理ディスクの2番目(インデックス=1)に位置付けされて、状態がTZEROからTZERO+に遷移する。セグメント#22は、論理ディスクの3番目(インデックス=2)に位置付けされて、状態がTZEROからTZERO+に遷移する。
 この論理ディスクが仮想マシンに接続されると、初期化フラグの列が“100”であるセグメント状態テーブル111が、IOサーバ100に生成される。また、初期化が完了していない2番目および3番目のセグメントに対応して、初期化ビットが全て0である2つの初期化ビットマップが、IOサーバ100に生成される。
 その後、管理サーバ400がセグメント#21の初期化を指示すると、例えば、論理ディスクの2番目のセグメントの先頭のチャンクから順に初期化されていく。先頭のチャンクが初期化済になると、2番目のセグメントに対応する初期化ビットマップでは、先頭の初期化ビットが0から1に更新される。また、アクセスサーバ300が3番目のセグメントのチャンク#1~#4に跨がる記憶領域を指定したアクセス要求を発行すると、チャンク#1~#4が初期化される。このとき、3番目のセグメントに対応する初期化ビットマップでは、2番目から5番目の初期化ビットが0から1に更新される。
 その後、セグメント#21の全てのチャンクが初期化されて、セグメント#21の状態がTZERO+からVALIDに遷移すると、セグメント状態テーブル111の初期化フラグの列が“110”に更新される。また、論理ディスクの2番目のセグメントに対応する初期化ビットマップが、IOサーバ100から削除される。
 第2の実施の形態のストレージシステムによれば、初期化が完了していないセグメントを用いて論理ディスクを作成して仮想マシンに割り当てることが可能となり、ユーザがストレージ装置200,200aの記憶領域の割り当てを待つ時間を減らすことができる。また、セグメントを細分化したチャンク単位で排他制御が行われるため、バックグラウンドで初期化中であるためにアクセス待ちとなる確率を減らすことができる。また、第2の実施の形態のストレージシステムでは、データアクセスと初期化処理の効率を両立させることができ、ストレージシステムの処理効率が改善する。
 例えば、あるチャンクへのデータの書き込みを示すアクセス要求を仮想マシンが発行したとき、指定された記憶領域については初期化せずに直接データが書き込まれるため、仮想マシンへの応答の遅延を減らすことができる。また、データを書き込むチャンク内の指定されていない記憶領域についても併せて初期化するため、チャンク全体を初期化済として扱うことができ、バックグラウンドで行う初期化処理の制御が簡潔となる。
 また、あるチャンクからのデータの読み出しを示すアクセス要求を仮想マシンが発行したとき、そのチャンク全体が初期化されるため、例えば、そのチャンクが複数回アクセスされるときの負荷が軽減される。また、データを読み出すチャンク内の指定されなかった記憶領域についても初期化が行われるため、チャンク全体を初期化済として扱うことができ、バックグラウンドで行う初期化処理の制御が簡潔となる。
 なお、前述のように、第1の実施の形態のデータアクセス方法は、コンピュータ10にプログラムを実行させることで実現できる。また、第2の実施の形態のデータアクセス方法は、コンピュータとしてのIOサーバ100,100a、ストレージ装置200,200a、アクセスサーバ300,300aおよび管理サーバ400に、それぞれ、プログラムを実行させることで実現できる。プログラムは、コンピュータ読み取り可能な記録媒体(例えば、記録媒体53)に記録しておくことができる。記録媒体としては、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどを使用できる。磁気ディスクには、FDおよびHDDが含まれる。光ディスクには、CD、CD-R(Recordable)/RW(Rewritable)、DVDおよびDVD-R/RWが含まれる。
 プログラムを流通させる場合、例えば、当該プログラムを記録した可搬記録媒体が提供される。また、プログラムを他のコンピュータの記憶装置に格納しておき、ネットワーク経由でプログラムを配布することもできる。コンピュータは、例えば、可搬記録媒体に記録されたプログラムまたは他のコンピュータから受信したプログラムを、記憶装置(例えば、HDD103)に格納し、当該記憶装置からプログラムを読み込んで実行する。ただし、可搬記録媒体から読み込んだプログラムを直接実行してもよく、他のコンピュータからネットワークを介して受信したプログラムを直接実行してもよい。
 上記については単に本発明の原理を示すものである。更に、多数の変形や変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成および応用例に限定されるものではなく、対応する全ての変形例および均等物は、添付の請求項およびその均等物による本発明の範囲とみなされる。
 10 コンピュータ
 11 プロセッサ
 12 メモリ
 21,22 記憶装置
 23,24 ブロック
 30 クライアント
 31,32 アクセス要求

Claims (6)

  1.  1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムが実行するデータアクセス方法であって、
     初期化されていないブロック内の一部分である第1の記憶領域へのデータの書き込みを示すアクセス要求を受け付けることを許容し、
     前記アクセス要求を受け付けたとき、前記ブロック内のうち前記アクセス要求で指定された前記第1の記憶領域に対して初期化せずにデータを書き込み、また、前記ブロック内のうち前記アクセス要求で指定されなかった第2の記憶領域を初期化し、
     前記第1の記憶領域へのデータの書き込みと前記第2の記憶領域の初期化とによって、前記ブロックの初期化が完了したと判断する、データアクセス方法。
  2.  1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムが実行するデータアクセス方法であって、
     初期化されていないブロック内の一部分である第1の記憶領域からのデータの読み出しを示すアクセス要求を受け付けることを許容し、
     前記アクセス要求を受け付けたとき、前記ブロック内のうち前記アクセス要求で指定された前記第1の記憶領域と前記アクセス要求で指定されなかった第2の記憶領域とを初期化し、初期化後の前記第1の記憶領域に相当するデータをアクセス結果として出力し、
     前記アクセス要求に応じて行った前記第1および第2の記憶領域の初期化によって、前記ブロックの初期化が完了したと判断する、データアクセス方法。
  3.  初期化されていない複数のブロックについて前記アクセス要求が許容されるとき、前記複数のブロックそれぞれの排他制御に用いる排他情報を用意し、
     前記排他情報を用いて、前記アクセス要求に応じて初期化を行う第1のプロセスと前記アクセス要求によらずに前記複数のブロックの初期化を進める第2のプロセスとの間で、ブロック単位で排他制御を行う、請求の範囲第1項または第2項記載のデータアクセス方法。
  4.  1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムに用いられるコンピュータに、
     初期化されていないブロック内の一部分である第1の記憶領域へのデータの書き込みを示すアクセス要求を受け付け、
     前記アクセス要求を受け付けたとき、前記ブロック内のうち前記アクセス要求で指定された前記第1の記憶領域に対して初期化せずにデータを書き込み、また、前記ブロック内のうち前記アクセス要求で指定されなかった第2の記憶領域を初期化し、
     前記第1の記憶領域へのデータの書き込みと前記第2の記憶領域の初期化とによって、前記ブロックの初期化が完了したと判断する、処理を実行させるプログラム。
  5.  1またはそれ以上の記憶装置が備える記憶領域の初期化状況をブロック単位で管理することが可能なストレージシステムに用いられるコンピュータに、
     初期化されていないブロック内の一部分である第1の記憶領域からのデータの読み出しを示すアクセス要求を受け付け、
     前記アクセス要求を受け付けたとき、前記ブロック内のうち前記アクセス要求で指定された前記第1の記憶領域と前記アクセス要求で指定されなかった第2の記憶領域とを初期化し、初期化後の前記第1の記憶領域に相当するデータをアクセス結果として出力し、
     前記アクセス要求に応じて行った前記第1および第2の記憶領域の初期化によって、前記ブロックの初期化が完了したと判断する、処理を実行させるプログラム。
  6.  初期化されていない複数のブロックについて前記アクセス要求が許容されるとき、前記複数のブロックそれぞれの排他制御に用いる排他情報を用意し、
     前記排他情報を用いて、前記アクセス要求に応じて初期化を行う第1のプロセスと前記アクセス要求によらずに前記複数のブロックの初期化を進める第2のプロセスとの間で、ブロック単位で排他制御を行う、請求の範囲第4項または第5項記載のプログラム。
PCT/JP2012/056985 2012-03-19 2012-03-19 データアクセス方法およびプログラム WO2013140492A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2012/056985 WO2013140492A1 (ja) 2012-03-19 2012-03-19 データアクセス方法およびプログラム
JP2014505826A JP6119736B2 (ja) 2012-03-19 2012-03-19 データアクセス方法、プログラムおよびデータアクセス装置
US14/485,830 US9582214B2 (en) 2012-03-19 2014-09-15 Data access method and data access apparatus for managing initialization of storage areas

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/056985 WO2013140492A1 (ja) 2012-03-19 2012-03-19 データアクセス方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/485,830 Continuation US9582214B2 (en) 2012-03-19 2014-09-15 Data access method and data access apparatus for managing initialization of storage areas

Publications (1)

Publication Number Publication Date
WO2013140492A1 true WO2013140492A1 (ja) 2013-09-26

Family

ID=49221988

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/056985 WO2013140492A1 (ja) 2012-03-19 2012-03-19 データアクセス方法およびプログラム

Country Status (3)

Country Link
US (1) US9582214B2 (ja)
JP (1) JP6119736B2 (ja)
WO (1) WO2013140492A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004146A (ja) * 2015-06-08 2017-01-05 富士通株式会社 ストレージ制御装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9612745B2 (en) * 2014-01-24 2017-04-04 Silicon Graphics International Corp. Raid set initialization
JP2016143296A (ja) * 2015-02-03 2016-08-08 富士通株式会社 情報記憶装置、ストレージシステムおよび情報記憶装置制御プログラム
KR102384344B1 (ko) * 2015-06-03 2022-04-07 삼성전자주식회사 모바일 장치 및 모바일 장치의 동작 방법
US9971606B2 (en) * 2016-04-18 2018-05-15 Super Micro Computer, Inc. Technique for reordering hard drive activation reports to achieve sequential hard drive ordering
US10564903B2 (en) * 2016-05-13 2020-02-18 Seagate Technology Llc Method and apparatus for rapid volume reformatting
US10852988B2 (en) * 2018-04-30 2020-12-01 Intel Corporation On access memory zeroing
JP7154344B1 (ja) 2021-05-13 2022-10-17 日東電工株式会社 配線回路基板および配線回路基板集合体シート

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0470921A (ja) * 1990-07-05 1992-03-05 Toshiba Corp 磁気ディスクコントローラ
JPH10508967A (ja) * 1995-09-01 1998-09-02 イーエムシー コーポレイション オンライン、実時間、データ移送の技術分野のためのシステム及び方法
JP2004357078A (ja) * 2003-05-30 2004-12-16 Fuji Xerox Co Ltd 画像処理装置、画像処理方法、画像処理プログラム
JP2006059179A (ja) * 2004-08-20 2006-03-02 Canon Inc 画像処理装置及び画像処理装置の制御方法
JP2006216146A (ja) * 2005-02-03 2006-08-17 Hitachi Ltd ハードディスクドライブ

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0896588A (ja) * 1994-09-28 1996-04-12 Nec Corp 半導体記憶装置
JPH08202529A (ja) * 1995-01-23 1996-08-09 Canon Inc データ処理方法及びその装置
JP2964926B2 (ja) * 1995-08-29 1999-10-18 富士ゼロックス株式会社 データベース管理装置及び方法
JP3718578B2 (ja) * 1997-06-25 2005-11-24 ソニー株式会社 メモリ管理方法及びメモリ管理装置
JP3617631B2 (ja) * 2001-07-19 2005-02-09 富士通株式会社 ストレージ制御装置及びその制御方法
JP3878442B2 (ja) 2001-07-30 2007-02-07 株式会社リコー 情報記録再生装置とプログラム
US7461176B2 (en) 2003-05-02 2008-12-02 Hitachi, Ltd. Method for initialization of storage systems
US7711897B1 (en) * 2005-06-10 2010-05-04 American Megatrends, Inc. Method, system, apparatus, and computer-readable medium for improving disk array performance
US8397038B2 (en) * 2007-03-22 2013-03-12 Vmware, Inc. Initializing file data blocks
US8086797B2 (en) * 2008-06-06 2011-12-27 Pivot3 Method and system for distributing commands to targets
JP5218147B2 (ja) * 2009-02-26 2013-06-26 富士通株式会社 ストレージ制御装置,ストレージ制御方法およびストレージ制御プログラム
US8364920B1 (en) * 2009-04-06 2013-01-29 Network Appliance, Inc. System and method for transferring and backing up luns and lun clones on primary and secondary servers
JP5655344B2 (ja) * 2010-03-31 2015-01-21 富士通株式会社 ストレージ装置、ストレージ装置制御プログラムおよびストレージ装置制御方法
US8473704B2 (en) * 2010-04-28 2013-06-25 Hitachi, Ltd. Storage device and method of controlling storage system
WO2012081058A1 (en) * 2010-12-17 2012-06-21 Hitachi, Ltd. Storage subsystem and its logical unit processing method
US9146766B2 (en) * 2011-06-22 2015-09-29 Vmware, Inc. Consistent unmapping of application data in presence of concurrent, unquiesced writers and readers
US9086805B2 (en) * 2012-03-12 2015-07-21 Seagate Technology Llc Dynamic tracking of storage region operating parameters
WO2014051544A2 (en) * 2012-09-25 2014-04-03 Empire Technology Development Llc Improved performance and energy efficiency while using large pages
US9367245B2 (en) * 2013-04-26 2016-06-14 Netapp, Inc. Data access request monitoring to reduce system resource use for background operations
US10275171B2 (en) * 2014-09-16 2019-04-30 Kove Ip, Llc Paging of external memory

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0470921A (ja) * 1990-07-05 1992-03-05 Toshiba Corp 磁気ディスクコントローラ
JPH10508967A (ja) * 1995-09-01 1998-09-02 イーエムシー コーポレイション オンライン、実時間、データ移送の技術分野のためのシステム及び方法
JP2004357078A (ja) * 2003-05-30 2004-12-16 Fuji Xerox Co Ltd 画像処理装置、画像処理方法、画像処理プログラム
JP2006059179A (ja) * 2004-08-20 2006-03-02 Canon Inc 画像処理装置及び画像処理装置の制御方法
JP2006216146A (ja) * 2005-02-03 2006-08-17 Hitachi Ltd ハードディスクドライブ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004146A (ja) * 2015-06-08 2017-01-05 富士通株式会社 ストレージ制御装置

Also Published As

Publication number Publication date
US20150006818A1 (en) 2015-01-01
JPWO2013140492A1 (ja) 2015-08-03
JP6119736B2 (ja) 2017-04-26
US9582214B2 (en) 2017-02-28

Similar Documents

Publication Publication Date Title
JP6119736B2 (ja) データアクセス方法、プログラムおよびデータアクセス装置
US9448728B2 (en) Consistent unmapping of application data in presence of concurrent, unquiesced writers and readers
JP5786611B2 (ja) ストレージ装置およびストレージシステム
JP4940738B2 (ja) 記憶領域動的割当方法
JP5309043B2 (ja) ストレージシステム及びストレージシステムでの重複データ削除のための方法
US7966470B2 (en) Apparatus and method for managing logical volume in distributed storage systems
US7249240B2 (en) Method, device and program for managing volume
CN101727331B (zh) 升级活动虚拟机的客户操作系统的方法和设备
US8762660B2 (en) Avoiding physical fragmentation in a virtualized storage environment
US8069217B2 (en) System and method for providing access to a shared system image
US20110270945A1 (en) Computer system and control method for the same
JP7054001B2 (ja) 情報処理システム、管理装置および制御方法
US8954706B2 (en) Storage apparatus, computer system, and control method for storage apparatus
JP6511795B2 (ja) ストレージ管理装置、ストレージ管理方法、ストレージ管理プログラムおよびストレージシステム
JP2016115253A (ja) 情報処理装置、メモリ管理方法およびメモリ管理プログラム
US20080109630A1 (en) Storage system, storage unit, and storage management system
US10530870B2 (en) Direct volume migration in a storage area network
US20160357479A1 (en) Storage control apparatus
US20220107747A1 (en) Computer system and load distribution method
JP7113698B2 (ja) 情報システム
WO2016092667A1 (ja) 計算機及び割込み制御方法
JP6657990B2 (ja) ストレージ装置、仮想ボリューム制御システム、仮想ボリューム制御方法および仮想ボリューム制御プログラム
US8527716B2 (en) Volume sharing method and storage system using the same
JP2023116924A (ja) 情報処理プログラム、情報処理方法および情報処理システム
JP2022020926A (ja) ストレージシステム及び処理移行方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12872100

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014505826

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12872100

Country of ref document: EP

Kind code of ref document: A1