WO2015145707A1 - 追記型記憶装置への書き込みデータ決定方法 - Google Patents

追記型記憶装置への書き込みデータ決定方法 Download PDF

Info

Publication number
WO2015145707A1
WO2015145707A1 PCT/JP2014/059067 JP2014059067W WO2015145707A1 WO 2015145707 A1 WO2015145707 A1 WO 2015145707A1 JP 2014059067 W JP2014059067 W JP 2014059067W WO 2015145707 A1 WO2015145707 A1 WO 2015145707A1
Authority
WO
WIPO (PCT)
Prior art keywords
write
data
storage device
once
storage
Prior art date
Application number
PCT/JP2014/059067
Other languages
English (en)
French (fr)
Inventor
司 柴山
幸徳 坂下
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2014/059067 priority Critical patent/WO2015145707A1/ja
Publication of WO2015145707A1 publication Critical patent/WO2015145707A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/064Management of blocks

Definitions

  • the present invention relates to a storage system.
  • a computer that manages data writing in a write-once storage device
  • the processor is based on data management information of a plurality of data stored in a temporary storage medium provided in the write-once storage device. Composing multiple data groups from the data, Based on the storage capacity of the write-once storage medium included in the write-once storage device, information on storage data of the higher-level storage device connected to the write-once storage device, and archive prediction information from the higher-level storage device to the write-once storage device
  • a computer is provided that determines a data group to be stored in a write-once storage medium from the data group and transmits an instruction to store the determined data group in the write-once storage medium to a write-once storage device.
  • FIG. 1 is a diagram for explaining the outline of the present invention.
  • FIG. 2 is an overall configuration diagram of the first embodiment.
  • FIG. 3 is a configuration diagram of the host computer and the file storage according to the first embodiment.
  • FIG. 4 is a configuration diagram of the block storage according to the first embodiment.
  • FIG. 5 is a configuration diagram of the write-once storage device according to the first embodiment.
  • FIG. 6 is a configuration diagram of the apparatus management server according to the first embodiment.
  • FIG. 7 is a configuration diagram of the hierarchy management server according to the first embodiment.
  • FIG. 8 is a diagram illustrating information of the file configuration management table according to the first embodiment.
  • FIG. 9 is a diagram illustrating information of the block configuration management table according to the first embodiment.
  • FIG. 1 is a diagram for explaining the outline of the present invention.
  • FIG. 2 is an overall configuration diagram of the first embodiment.
  • FIG. 3 is a configuration diagram of the host computer and the file storage according to the first embodiment.
  • FIG. 4 is a configuration
  • FIG. 10 is a diagram illustrating information of the write-once storage device configuration management table according to the first embodiment.
  • FIG. 11 is a diagram illustrating information of the configuration management table according to the first embodiment.
  • FIG. 12 is a diagram illustrating information of the file management table according to the first embodiment.
  • FIG. 13 is a diagram illustrating information of the movement policy table according to the first embodiment.
  • FIG. 14 is a diagram illustrating information in the determination criterion table according to the first embodiment.
  • FIG. 15 is a diagram illustrating information in the data group information table of the first embodiment.
  • FIG. 16 is a diagram illustrating information of the cache management table according to the first embodiment.
  • FIG. 17 is a diagram illustrating information in the write destination management table according to the first embodiment.
  • FIG. 1 is a diagram showing an outline of this embodiment.
  • the device management server 50 holds a storage management program 504, a file management table 508, a data group information table 511, and a write destination management table 513.
  • the file management table 508 includes file information held in the host computer 10 and the file server 20 and an estimated time for storing data in the write-once storage device 40 which is the end of the hierarchical storage.
  • the data group information table 511 includes information for grouping each file.
  • the write destination management table 513 includes information on the storage medium to which the data group is to be written.
  • the hierarchy management server 60 holds a hierarchy management program 604, a migration policy table 605, and file metadata 606.
  • the movement policy table 605 includes a data movement policy between devices.
  • the file metadata 606 includes metadata held by a file in the host computer or file server.
  • the write-once storage device 40 includes a cache memory 404, a write program 410, and a medium storage unit 407. A plurality of write-once storage media 408 are stored in the medium storage unit.
  • this embodiment By using this embodiment in such a case, it is possible to improve the capacity efficiency and the read performance.
  • a technology that reads data in advance (prefetch) if the purpose of use and its time are known, the read time is shortened, so it is possible to shorten the time to read data in advance.
  • the pre-read processing can be applied even to a large amount of data.
  • the summary writing is also effective for storage media other than write-once, and has utility other than improved read performance. For example, it is possible to reduce the CPU load due to the fact that defragmentation is not required for an HDD, and to improve the efficiency of data erasure by rewriting data in an erase unit or more for a semiconductor memory.
  • FIG. 2 is a block diagram showing a configuration example of the entire computer system 1.
  • the host computer 10 is connected to the file server 20 and the write-once storage device 40 via the data network 70a.
  • the file server 20 and the block storage 30 are connected via a data network 70b.
  • the host computer 10, file storage 20, block storage 30, write-once storage device 40, device management server 50, and hierarchy management server 60 are connected via a management network 80.
  • the data networks 70a and 70b do not need to be separated, and may be the same network.
  • the host computer 10 may be connected to the block storage 30.
  • the protocol of the data network 70 and the management network 80 may be any protocol such as FC (Fibre Channel) or IP (Internet Protocol), and the data network 70 and the management network 80 may be the same network.
  • the write-once storage device 40 and the device management server 50 are collectively referred to as a storage system 90.
  • the block storage 30B, the write-once storage device 40, and the device management server 50 are collectively referred to as a hybrid archive
  • FIG. 3 is a diagram showing an example of the host computer 10 and the file server 20.
  • the memory 102 stores an OS (Operating System) 103 and a device manager 106 for mounting a storage area of the storage apparatus.
  • the memory 102 includes an application 104 and a hierarchy management agent 105.
  • the CPU 101 operates the OS 103, the device manager 106, the application 104, and the hierarchy management agent 105 on the memory.
  • the hierarchy management agent 105 communicates with the hierarchy management program 604 in the hierarchy management server 60.
  • the data interface 107 is connected to the data network 70.
  • the management interface 108 is connected to the management network 80.
  • the data interface 107 and the management interface 108 may be the same.
  • the file control processor 202 operates the hierarchical management agent in the memory.
  • the host interface 201 is connected to the host computer 10 via the data network 70a.
  • the disk interface 205 is connected to the block storage 30 via the data network 70b.
  • the management interface 206 is connected to the device management server 50 via the management network 80.
  • the file control processor 202 mounts the volume of the block storage 30 and causes the file server 20 to operate as NAS (Network Attached Storage). Here, detailed operation of NAS is omitted.
  • NAS Network Attached Storage
  • the parity group 309 is created from a plurality of physical storage storage devices.
  • a plurality of parity groups 310 and 311 are created.
  • the logical volume 312 is a logical storage area created from the parity group, and is used as a storage area by being allocated to the host computer 10 or the file server 20.
  • One or more logical volumes 313 are created.
  • the host interface 301 is connected to the host computer 10 and the file server 20 via the data network 70.
  • the management interface 315 is connected to the device management server 50 via the management network 80.
  • FIG. 5 is a diagram showing an example of a write-once storage device.
  • the memory 403 holds a write management program 410, a reproduction program 411, an agent program 412, a changer program 413, and a write-once storage device configuration management table 414.
  • the writing program 410 is a program for writing data to the write-once storage medium 408 through the recording / reading unit 405.
  • the write-once storage medium 408 is a storage medium for storing data, and is a write-once storage medium that cannot be rewritten. It is composed of a hologram disc or a Blu-ray disc, and different types of discs may be mixed.
  • the number of write-once storage media 408 is larger than the number of recording / reading units 405.
  • the cache memory 404 is a storage medium that temporarily caches data sent from the upper layer, and is configured by SRAM, DRAM, flash memory, HDD, or the like. Further, the cache memory is not necessarily provided in the write-once storage device, and a part or all of the storage area of the upper block storage may be used as the cache memory of the write-once storage device. Even in this case, it is desirable to provide a write buffer for temporarily storing before actually writing to the write-once type storage medium. This is because when data reception from the host device is slower than writing to the write-once storage medium, writing is not performed efficiently, and a failure may occur.
  • the host interface 401 is connected to the host computer 10 via the data network 70.
  • the management interface 409 is connected to the device management server 50 via the management network 80.
  • FIG. 6 is a block diagram illustrating an example of the device management server 50.
  • the device management server 50 is connected to the host computer 10, the file server 20, the block storage 30, the write-once storage device 40, and the hierarchy management server 60 via the management network 80, and can acquire necessary information from each computer. Necessary information (including programs) can be given to each computer.
  • the device management server 50 includes a CPU 501, which is a processor, a NIC (Network Interface Card) 502, a memory 503, and an input / output device 520.
  • the CPU 501 executes a program developed on the memory 503.
  • the NIC 502 is an interface for connecting to the host computer 10, the file server 20, the block storage 30, the write-once storage device 40, and the hierarchy management server 60 included in the computer system 1 through the management network 80. Is done.
  • the storage management program 504 uses each table stored in the memory 503 to manage information on each management target (host computer 10, file server 20, block storage 30, write-once storage device 40, hierarchy management server 60). .
  • the storage management program 504 can communicate with the agent program 412 in the write-once storage device 40 and receive instructions and notification of information.
  • the write instruction program 506 is a program that gives an instruction to write data stored in the cache memory 404 in the write-once storage device 40 to the write-once storage medium 408.
  • FIG. 7 is a block diagram illustrating an example of the hierarchy management server 60.
  • the hierarchy management server 60 is connected to the host computer 10, the file server 20, the block storage 30, the write-once storage device 40, and the device management server 50 via the data network 70 or the management network 80, and acquires necessary information from each computer. And necessary information (including programs) can be given to each computer.
  • An input / output device 620 for operating the hierarchy management server 60 is connected to the hierarchy management server 60.
  • the input / output device 620 is a device such as a mouse, a keyboard, and a display, and is used to input / output information between the device management server 60 and an administrator (also referred to as a user).
  • the hierarchy management server 60 includes a CPU 601, which is a processor, a NIC 602, a memory 603, and an input / output device 620.
  • the CPU 601 executes a program developed on the memory 603.
  • the memory 603 stores a program executed by the CPU 601 and information necessary for executing the program. Specifically, the memory 603 stores a hierarchy management program 604, a migration policy table 605, and file metadata 606. Other programs may be stored.
  • the hierarchy management program 604 communicates with the hierarchy management agents 105, 205, and 305, acquires file information of the host computer 10 and the file server 20, and separates files or volumes of the host computer 10, the file server 20, and the block storage 30. This program moves to the host computer 10, the file server 20, and the block storage 30.
  • the file metadata 606 is a table showing attribute information of files in the host computer 10 and the file server 20.
  • FIG. 8 and subsequent figures are examples of tables stored in the memory in each computer.
  • FIG. 8 shows a file configuration management table 204 in the file server.
  • the file configuration management table 204 has the following information (2040) to (2042).
  • (2040) Device type Contains information on the device type of the file server.
  • (2041) Device identifier It has information that uniquely identifies the device that the file server has.
  • FIG. 9 shows a block configuration management table 304 in the block storage.
  • the block configuration management table 304 has the following information (3040) to (3043).
  • (3040) Device type Contains device type information of block storage.
  • (3041) Device identifier It has information that uniquely identifies the device that the block storage has.
  • (3043) Volume final access time It has information on the time when the last I / O occurred in the volume.
  • the volume last access time may be a time including I / O that does not actually access the storage medium because the target data has received a cache hit but received the read request.
  • FIG. 10 shows a write-once storage device configuration management table 414.
  • the write-once storage device configuration management table 414 has the following information (4140) to (4444).
  • (4140) Device type It has information on the type of device that the write-once storage device has.
  • (4141) Device identifier It has information that uniquely identifies a device of a write-once storage device.
  • (4142) Specification In the case of a cache and an optical disc, the size is set.
  • Cache threshold It has a threshold value serving as a reference for data write timing when data is stored in the cache memory 404 of the write-once storage device 40.
  • (4144) Write unit Indicates the minimum size that can be written to a storage medium such as an optical disc at one time.
  • FIG. 11 is an explanatory diagram of the configuration management table 507.
  • the configuration management table has the following information (5070) to (5077).
  • Information on the configuration management table is generated by the storage management program 504 based on the file configuration management table 204 in the file server, the block configuration management table 304 in the block storage, and the write-once storage device configuration management table 414.
  • a device to be managed has information indicating one of a block storage, a file server, and a write-once storage device.
  • (5072) Device type It has information on the device type of each managed device.
  • (5073) Device identifier It has information that uniquely identifies the device of each managed device.
  • Cache threshold It has a threshold value serving as a reference for data write timing when data is stored in the cache memory 404 of the write-once storage device 40.
  • Write unit Indicates the minimum size that can be written to a storage medium such as an optical disc at one time.
  • (5077) Volume final access time It has information on the time when the last I / O occurred in the volume.
  • FIG. 12 explains the file management table 508.
  • the file management table has the following information (5080) to (50892).
  • (5080) File identifier. Indicates information that uniquely identifies a file to be managed.
  • (5081) File size. Indicates the size of the file.
  • (5082) Last access time. Indicates the time when the file was last accessed.
  • (5083) Original storage location. Indicates the location of the storage device where the file was generated.
  • Current storage location Indicates the location of the storage device where the file currently exists.
  • Use application Shows information about applications that use the file.
  • (5086) Backup time Indicates the time when the file was last backed up.
  • (5088) Group ID The information which identifies the file group of the said file determined by the information of the judgment reference
  • Host Indicates the identifier of the host where the file exists.
  • Archive prediction time The estimated archive time of the file calculated from the information in the migration policy table 509 and the last access time 5082 is shown.
  • (50892) Extension If there is extension information of the file, it is indicated.
  • FIG. 13 shows an example of the movement policy table 509.
  • the movement policy table has the following information (5090) to (5092).
  • the data included in ST1 when the volume of ST1 is used in Host1 indicates that the data is moved to another tier called ST2 if there is no access for one month.
  • the policy is set for each host, but the policy may be set for each file or directory accessed by the host.
  • the data used from the same analysis application is considered to be read in principle at the same timing, and the priority is set to 0 so as to be in the same group.
  • the same timing backup of the reference ID 2 it is expected that data backed up at the same timing have the same access tendency. It is estimated that the same access tendency will continue after archiving, so it becomes a criterion for group selection.
  • the same application with the reference ID 1 is used as the group selection reference because the data used from the same application as the active data has a relatively high expected value read at the same timing after archiving.
  • FIG. 15 is an example of the data group information table 511.
  • the data group information table has the following information (5110) to (5114).
  • (5110) Group ID This is an identifier for identifying a file group.
  • (5111) Judgment result As a result of grouping according to the information of the judgment criteria table, it shows which criteria are met.
  • (5113) Reason for reference ID2. When it corresponds to standard ID2, the specific content is shown.
  • the number of reference ID reason columns in the data group information table increases with the number of reference IDs in the determination reference table 510.
  • FIG. 16 is an example of the cache management table 512.
  • the cache management table 512 has the following information (5120) to (5122).
  • (5120) File identifier Indicates the identifier of a file that exists in the cache file.
  • (5121) File size Indicates the size of the file.
  • (5122) Group ID Indicates an identifier for identifying the file group of the file.
  • FIG. 17 is an example of the write destination management table 513.
  • the write destination management table has the following information (5130) to (5131).
  • (5130) Group ID Indicates the identifier of the file group. For example, if “N + M” is described, not only one identifier but also a plurality of file groups can be written to the write-once disc identifier.
  • (5131) Write-once disc identifier Indicates the identifier of a write-once disc to which a file group is to be written. It is possible to describe not only one identifier but also a plurality of write-once disc identifiers.
  • FIG. 18 is an example of file metadata.
  • the file metadata 606 has the following information (6060) to (6067).
  • (6060) File identifier. Indicates the file identification information.
  • (6061) File size. Indicates the size of the file.
  • (6062) Update date and time. Indicates the date and time when the file was updated.
  • (6063) Last access date and time. Indicates the date and time when the file was last accessed.
  • (6064) Storage location Indicates the location of the storage device where the file currently exists.
  • a user Indicates the user of the file. You may use file creator information.
  • (6066) File permission. Indicates the access authority to the file.
  • (6067) Host. Indicates the identifier of the host that accesses the file.
  • FIG. 19 shows a flow S10 of information acquisition processing by the device management server 50 and the hierarchy management server 60 in the first embodiment.
  • the processing of Step 1000 and Step 1001 is executed either periodically or at the time of file creation.
  • the processing after S1002 is executed either periodically or when the file metadata 606 is updated.
  • the hierarchy management program 604 periodically collects file information from the OS 103 and the application 104 of each host computer 10.
  • the hierarchy management program 604 updates the file metadata 606 using the information acquired in Step 1000.
  • the storage management program 504 collects the file metadata 606 of the hierarchy management server 60 and the information of the application 104 of the host computer 10.
  • Step 1003 The storage management program 504 uses the information acquired in Step 1002 to update the file identifier, file size, last access time, storage location information, Host information, and application information in the file management table 508.
  • Step 1004 The storage management program 504 checks whether or not the updated usage application information indicates backup software, and if it is backup software, the process proceeds to Step 1005. Otherwise, go to Step 1006.
  • Step 1005 The storage management program 504 acquires the backup time of each file of the migration policy from the application 104 of the host computer 10 to the optical archive.
  • Step 1006 The storage management program 504 checks whether or not the updated usage application information indicates an archive data usage application. If the storage management program 504 is an archive data usage application, the processing proceeds to Step 1007. Otherwise, go to Step 1008.
  • the storage management program 504 acquires the usage method of the file archived from the archive data usage application from the application 104 of the host computer 10.
  • the usage method in the case of an archive data analysis application, an execution file to be used, a target file, an execution time thereof, and the like are included.
  • the storage management program 504 acquires information (for example, file extension) that can identify the application to be used from the host computer 10.
  • the storage management program 504 updates the file management table 508 using the acquired various information.
  • FIG. 20 shows a flow S11 of processing for setting data group information in the first embodiment.
  • the processing for each file is described at the timing when the file information is updated, but this flow may be periodically executed for all files.
  • the following steps are repeated for each generated and updated file and each host.
  • the storage management program 504 acquires update information (application, backup, etc.) related to the contents of the determination criteria table from the file management table 508, and creates information corresponding to the determination result of the data group information table 511.
  • update information application, backup, etc.
  • Step 1101 The storage management program 504 checks whether a group having the same reference content already exists in the data group information table 511, and if there is, proceeds to Step 1103. If not, the process proceeds to Step 1102.
  • Step 1102 The storage management program 504 assigns an unused group ID to create a new group, sets the group ID, sets the group ID, the determination result, and the reason for each reference ID in the data group information table. .
  • Step 1103 The storage management program 504 determines a file group of the file and sets a group ID in the file management table 508.
  • Step 1104 The storage management program 504 derives the time to be archived from the last access time and the data management policy, and sets a value in the predicted archive time column 50891 of the file management table 508.
  • Step 1201 The hierarchy management program 604 checks whether there is a file corresponding to the condition of the policy 5092 of the migration policy table 509. (Step 1202) If there is a corresponding file in the migration policy table, the process proceeds to Step 1203. If not, go to the next file check. (Step 1203) The hierarchy management program 604 copies the file to another storage apparatus or write-once storage apparatus via the hierarchy management agent. The above processing is repeated for each generated and updated file and for each host.
  • the storage management program 504 stores the estimated archive time of the upper tier (hierarchies other than the write-once storage device), the total file size in the cache memory, and the medium of the write-once storage device described in the configuration management table 507.
  • the size 5074 and the writing unit 5076 are compared. Specifically, a file group exceeding the writing unit is specified for the total size of all the file groups in the cache memory. If no file group exceeds the writing unit, all file groups are targeted. Next, among these file groups, the size of the files that are archived in the upper layer is added from the earliest time, and the file group that reaches the medium size 5047 of the write-once type storage device is written as the file group that writes out the file. decide.
  • the reason for determining the file group that reaches the medium size 5047 of the write-once type storage device as the file group to be written out is that if the medium size is reached slowly, the time that remains in the cache becomes long and the cache is compressed.
  • the storage management program 504 checks whether the group ID of the determined file group is registered as a write destination in the write destination management table. If registered, the process proceeds to Step 1306. If not registered, the process proceeds to Step 1305.
  • Step 1305) The storage management program 504 selects a medium that is not registered in the write destination management table from the configuration management table, and registers the ID of the file group specified this time and an unused write-once disc identifier in the write destination management table. .
  • Step 1306) The write instruction program 506 outputs an instruction to write the data of the specified file group to the storage medium described in the write destination management table to the write program 410 via the agent program 412 of the write-once storage device.
  • FIG. 23 shows a flow S14 of the data writing process in the first embodiment.
  • the process of FIG. 23 is executed at the timing when the data write instruction is transmitted in the flow S1306 of FIG.
  • the write program 410 issues an instruction to take out the designated storage medium to the changer program 413.
  • the changer program 413 drives the medium transport unit 406, takes out the corresponding write-once storage medium 408 from the medium storage unit 407, and sets the storage medium in the recording / reading unit 405.
  • the write program 410 writes the file group to the designated storage medium.
  • FIG. 24 is an explanation of the archive access history table 514.
  • the archive access history table has the following information (5140) to (5144).
  • (5140) File identifier Indicates the file identification information.
  • (5141) File size Indicates the size of the file.
  • (5142) Group ID Indicates the identification information of the file group.
  • (5143) Storage location Indicates on which medium in the write-once storage device the file is stored.
  • Access history The time when the archived file was read is retained as a history.
  • Step 1602 The storage management program 504 refers to the archive access history table and checks whether there is a file stored in another disk with the same access history (eg, read twice or more at the same timing). To do. Even if the timing is not exactly the same, it may be called twice or more during a specific period, or any other tendency may be used. If there is the same trend, the process proceeds to Step 1603. If there are no similar trends, the process ends.
  • Step 1603 The writing program 410 once reads a file having the same tendency into the cache and writes it into another write-once storage medium.
  • Step 1604 The group ID of the file written by the writing program 410 is updated, and the writing destination management table is also updated to the group ID of the current file and the written-once disk identifier.
  • the write program 410 executes the unreadable process for the corresponding file portion in the original write-once disc.
  • the writing program 410 writes a file with the same tendency to another write-once disk, but the access tendency is the same for a write-once storage medium in which some of the files with the same tendency are already stored.
  • some of the files having the same tendency may be stored in a write-once storage medium in which some files are already stored.
  • files archived in the write-once storage device can be stored in a capacity-efficient manner, and the reading speed can be improved.
  • a large-capacity storage medium such as a hologram disk as a write-once storage medium
  • a large-capacity cache is required to store the data in the cache in order to group related data to be written to the storage medium. Cost.
  • the data to be stored in the storage medium can be determined in consideration of the data that has not yet been stored in the cache, so that the amount of cache required for grouping can be reduced.
  • Example 2 The difference between the first embodiment and the second embodiment is the processing content of the data write instruction to the write-once type storage device.
  • the first embodiment when writing a file group to the medium, only one specific file group is specified and written, but in the second embodiment, a process of writing a plurality of file groups together as one file group is also included.
  • Processing flow S15 is shown in FIG. Note that the processing in FIG. 26 is performed at the timing when data is moved to the write-once storage device. (Step 1500) This Step is the same as the processing from Step 1300 to Step 1304 of the first embodiment.
  • Step 1501 The storage management program 504 has a predicted archive time of a file group in the upper hierarchy (hierarchies other than the write-once storage device), the total file size in the cache memory, and the size of the medium of the write-once storage device described in the configuration management table. 5074 and the write unit 5076 are compared. Specifically, a file group exceeding the writing unit is specified for the total size of all the file groups in the cache memory. (Step 1502) It is checked whether there is a file group exceeding the writing unit. If the result is Yes, the process proceeds to Step 1505. If No, the process proceeds to Step 1503. (Step 1503) The storage management program 504 checks whether there is a combination of file groups that differ only in some contents of the file group information table.
  • Step 1504. If there is, proceed to Step 1504. If not, go to Step 1505.
  • Step 1504 The storage management program 504 determines a plurality of file groups having a total size closest to the medium size among the plurality of file groups as file groups to be written on the same disk.
  • Step 1505 The storage management program 504 determines a single file group closest to the medium size as a file group to be written to the disk.
  • Step 1506 The storage management program 504 updates the information of one or more file groups and write-once disk identifiers in the write destination management table.
  • Step 1507 The storage management program 504 instructs the write program 410 of the write-once disk device to write the data of the specified file group to the storage medium described in the write destination management table.
  • the processing criteria for determining whether to combine a plurality of file groups into one may be other criteria. For example, when the write-once storage device has a small number of free media, an algorithm that puts a plurality of file groups into one with emphasis on capacity efficiency may be used. Also, using the estimated archive time, check if the cache memory overflows due to the large file size when the file is next archived, and manage only in the cache memory. When it is necessary to do so, a processing standard of collecting a plurality of file groups may be used. Other processing standards may also be used.
  • the second embodiment writes a plurality of file groups together on one medium, thereby reducing the number of additional recordings and reducing waste of capacity.
  • Example 3 will be described.
  • the difference between the first embodiment and the third embodiment is that the data is processed in file units in the third embodiment, whereas the data is processed in block units in the third embodiment.
  • the third embodiment an example is shown in which blocks are handled in units of LUs, but it may be considered in units of LBA (Logical Block / Address).
  • data is grouped using a lot of information such as application usage methods, but in the third embodiment, only access tendency information is used.
  • FIG. 27 explains the block management table 515.
  • the block management table has the following information (5150) to (5159).
  • (5150) Block identifier Set an identifier for the unit that manages the data. When a block is handled in units of LBA, an LBA start address and an end address are set here.
  • Last access date and time Indicates the date and time when the last I / O occurred to the block.
  • Original storage location Indicates the location of the device where the block was created.
  • (5154) Current storage location Indicates the location of the existing device in the block.
  • Backup date and time Indicates the date and time when the block was last backed up.
  • Purpose of use Indicates the purpose (application, execution time, etc.) for which the data of the block is used after archiving.
  • Group ID The information which identifies the data group of the said block determined by the information of the judgment criteria table 510 or the data group information table 511 is shown.
  • Host Indicates the identifier of the host to which the block is assigned.
  • Archive prediction time The archive predicted time of the block calculated from the information of the movement policy table 509 and the last access time 5152 is shown.
  • the storage management program 504 acquires configuration information and access time to the LU from the block storage 30.
  • the block management table is updated using the information acquired by the storage management program 504.
  • the table referred to in S1100 is changed from the file management table to the block management table, and the judgment criterion is the backup time.
  • the management target is changed for each storage, not for each host or file.
  • the file migration via the hierarchical management agent in S1203 is changed to LU migration processing.
  • Differences from the write instruction processing flow S13 (FIG. 17) in the first embodiment are as follows.
  • the file information notified in S1302 is volume information.
  • the storage destination of the information notified in S1303 is the volume management table.
  • the identifier of the cache management table is changed from the file identifier to the block identifier.
  • the file group becomes a data group.
  • the cache memory file is changed to the cache memory data, and the specified file is changed to the specified data.
  • the file group becomes a data group.
  • the file group becomes a data group.
  • the file group becomes a data group.
  • the above is the processing of the write instruction.
  • the write execution process flow S14 (FIG. 23) in the second embodiment is different in that the write target in Step 1402 is changed from a file group to a data group.
  • the target to be archived in the write-once type storage device can be handled not only in the file but also in the block unit, and can be stored in the write-once type storage device in a capacity efficient manner, and the speed at the time of reading can be improved. Is possible.

Abstract

 第1の記憶装置に接続される第2の記憶装置と、第2の記憶装置に接続される追記型記憶装置と、追記型記憶装置のデータ書き込みを管理する装置管理サーバと、を含むハイブリットアーカイブシステムであって、装置管理サーバは、書き換え可能な記憶媒体に格納される複数の第2記憶装置格納データのデータ管理情報に基づき、複数の第2記憶装置格納データから複数のデータ群を構成し、第1記憶装置に格納される複数の第1記憶装置格納データのデータ管理情報、ライトワンス記憶媒体の記憶容量、及び第1の記憶装置から第2の記憶装置へのデータ移動情報に基づき、複数のデータ群からライトワンス記憶媒体に書き込むデータ群を決定する。

Description

[規則37.2に基づきISAが決定した発明の名称] 追記型記憶装置への書き込みデータ決定方法
 本発明は記憶システムに関する。
 ストレージシステムのリード速度を向上させる技術として、アクセス頻度が所定値以上でかつ相関関係のある複数のファイルを1つのグループとして抽出し、グループのデータをディスク上の連続するブロックに書込む技術がある(特許文献1参照)。
特開平08-263335号公報
 特許文献1記載の技術では、記憶媒体に格納するデータを決定する際、将来他のストレージ装置から受信するデータについて考慮していない。その結果、まとめて書き込むべき、アーカイブ装置のキャッシュに格納されているデータと、他のストレージ装置に格納されているデータとが、関連性があっても異なる記憶媒体に書きこまれる可能性がある。この場合、関連性のあるデータ群をリードする場合、複数のディスクから読み込む事が必要となり、応答時間を短縮する事ができない。
 上記課題を解決するために、追記型記憶装置のデータ書き込みを管理する計算機であって、プロセッサは追記型記憶装置の備える一時記憶媒体に格納された複数のデータのデータ管理情報に基づき、複数のデータから複数のデータ群を構成し、
 追記型記憶装置の備えるライトワンス記憶媒体の記憶容量、追記型記憶装置に接続される上位記憶装置の格納データに関する情報、及び上位記憶装置から追記型記憶装置へのアーカイブ予測情報に基づき、複数のデータ群からライトワンス記憶媒体に格納するデータ群を決定し、決定されたデータ群のライトワンス記憶媒体への格納指示を追記型記憶装置に送信することを特徴とする計算機を提供する。
 本発明の一つの効果により、他装置からのデータ受信を考慮して、関連するデータをまとめて記憶媒体に格納する事ができる。
図1は本実施例の発明の概要を説明する図である。 図2は実施例1の全体の構成図である。 図3は実施例1のホスト計算機とファイルストレージの構成図である。 図4は実施例1のブロックストレージの構成図である。 図5は実施例1の追記型記憶装置の構成図である。 図6は実施例1の装置管理サーバの構成図である。 図7は実施例1の階層管理サーバの構成図である。 図8は実施例1のファイル構成管理テーブルの情報を示す図である。 図9は実施例1のブロック構成管理テーブルの情報を示す図である。 図10は実施例1の追記型記憶装置構成管理テーブルの情報を示す図である。 図11は実施例1の構成管理テーブルの情報を示す図である。 図12は実施例1のファイル管理テーブルの情報を示す図である。 図13は実施例1の移動ポリシーテーブルの情報を示す図である。 図14は実施例1の判断基準テーブルの情報を示す図である。 図15は実施例1のデータ群情報テーブルの情報を示す図である。 図16は実施例1のキャッシュ管理テーブルの情報を示す図である。 図17は実施例1の書込み先管理テーブルの情報を示す図である。 図18は実施例1のファイルメタデータの情報を示す図である。 図19は実施例1の情報取得のフローを示す図である。 図20は実施例1のデータ群情報設定のフローを示す図である。 図21は実施例1の階層化による移動のフローを示す図である。 図22は実施例1の書込み指示のフローを示す図である。 図23は実施例1の書込み処理のフローを示す図である。 図24は実施例1のアーカイブアクセス履歴テーブルの情報を示す図である。 図25は実施例1の追記型記憶装置内でのデータ入換え処理のフローを示す図である。 図26は実施例2の書込み指示のフローを示す図である。 図27は実施例3のブロック管理テーブルの情報を示す図である。
 図1は本実施例の概略を示す図である。装置管理サーバ50は、ストレージ管理プログラム504とファイル管理テーブル508とデータ群情報テーブル511と書込み先管理テーブル513とを保持する。ファイル管理テーブル508にはホスト計算機10やファイルサーバ20に保持されるファイル情報や階層ストレージの末端である追記型記憶装置40へデータが保存される予測時間が含まれる。データ群情報テーブル511には、各ファイルをグループ化するための情報が含まれる。書込み先管理テーブル513にはデータ群を書き込むべき記憶媒体の情報が含まれる。階層管理サーバ60は、階層管理プログラム604と移動ポリシーテーブル605とファイルメタデータ606を保持する。移動ポリシーテーブル605には各装置間のデータ移動ポリシーが含まれる。ファイルメタデータ606はホスト計算機やファイルサーバ内のファイルが持つメタデータが含まれる。追記型記憶装置40は、キャッシュメモリ404と書込みプログラム410と媒体格納部407とを有する。媒体格納部には複数の追記型記憶媒体408が格納される。
 ストレージ管理プログラム504は定期的、もしくはデータ生成のタイミングでホスト計算機10、ファイルサーバ20、ブロックストレージ30、追記型記憶装置40、階層管理サーバ60からデータに関する情報を収集しファイル管理テーブル508に保存する。次に収集したデータをデータ群情報テーブル511の情報を利用しグルーピングする。さらに移動ポリシーテーブル605の情報からデータが追記型記憶装置へ保存される時間を予測する。最後に、上位階層の移動傾向、キャッシュ上限サイズ(閾値)、追記型記憶媒体408の書込み単位、記憶媒体のサイズを考慮して、同一データ群のデータを書込み先管理テーブル513の情報に従いデータ書込みを実施する。
 本実施例により、追記型記憶媒体408にデータを書き込むときに追記型記憶装置内のデータだけでなく、これから追記型記憶装置内に移動される予定のデータまで考慮することで、膨大なキャッシュメモリを必要とせずに、一度に読まれる可能性のあるデータをより効率的にまとめて書き込むことができる。また、上位装置の記憶媒体もグループ化のためのキャッシュメモリとして使えるため、実質的にキャッシュメモリの容量追加と同様の効果を奏すると考えることもできる。
 その結果、ディスクから効率的にデータを読み込むことができ、リード速度を向上させることが出来る。特に、媒体の搬送を必要とする追記型記憶装置の場合はリードの際に、読み込むデータが複数の追記型記憶媒体に分散していると搬送時間を要するため、本実施例はより有効である。
 また、前述の様に、追記型記憶媒体は、データを追記する際には情報保存不可な領域が発生するため、本実施例により、データの追記型記憶媒体408への追記回数を減らし、容量効率よく記憶することが可能となる。例えば、記録密度の大きいホログラムディスクでは追記時に無駄な領域が大きくなってしまう。容量に無駄が発生するとデータサイズとしては1枚にまとめて書き込み可能なデータが、複数追記型記憶媒体に跨ってしまい、容量低下するだけでなく、リード速度が悪化する。また、ライトの最小単位が大きいなど、データを細かい単位で書き込む事そのものが難しい場合も考えられる。このような場合に本実施例を用いることで、容量効率の向上及び、リード性能の向上を実現することが可能となる。また、利用目的やその時間がわかっていれば事前にデータを読み出すような技術(プリフェッチ)を適用する場合、リード時間が短縮されるため、事前にデータを読み出す時間を短縮することが可能となり、大量データを対象にしても事前読み出し処理を適用することができるようになる。なお、まとめ書きはライトワンス以外の記憶媒体にも有効であり、リード性能向上以外の効用をもたらす。例えば、HDDであればデフラグが不要になることによるCPU負荷の低減、半導体メモリであれば消去単位以上でのデータの書き換えによるデータ消去の効率化などが挙げられる。
 次に本実施例の詳細を説明する。図2は全体の計算機システム1の構成例を示すブロック図である。ホスト計算機10はデータネットワーク70aを介してファイルサーバ20と、追記型記憶装置40と接続される。ファイルサーバ20とブロックストレージ30はデータネットワーク70bを介して接続される。なお、ホスト計算機10、ファイルストレージ20、ブロックストレージ30、追記型記憶装置40、装置管理サーバ50、階層管理サーバ60は管理ネットワーク80を介して接続される。なお、データネットワーク70a、70bは分かれている必要はなく、同一のネットワークでも良い。ホスト計算機10がブロックストレージ30と接続されても良い。またデータネットワーク70や管理ネットワーク80のプロトコルはFC(Fibre Channel)やIP(Internet Protocol)など任意のプロトコルで構わなく、データネットワーク70と管理ネットワーク80が同一ネットワークであってもよい。なお、追記型記憶装置40と装置管理サーバ50をまとめて記憶システム90と呼ぶ。さらに、ブロックストレージ30Bと、追記型記憶装置40と、装置管理サーバ50と、をまとめてハイブリットアーカイブシステム95と呼ぶ。
 図3はホスト計算機10とファイルサーバ20の例を示す図である。メモリ102にはOS(Operating System)103とストレージ装置の記憶領域をマウントするためのデバイスマネージャ106が格納される。メモリ102にはアプリケーション104と階層管理エージェント105を含む。CPU101がメモリ上のOS103やデバイスマネージャ106、アプリケーション104、及び階層管理エージェント105を動作させる。階層管理エージェント105は階層管理サーバ60内の階層管理プログラム604と通信する。データインタフェース107はデータネットワーク70と接続される。管理インタフェース108は管理ネットワーク80と接続する。なお、データインタフェース107と管理インタフェース108は同じであってもよい。
 ファイルサーバ20のメモリ203にはファイル構成管理テーブル204と階層管理エージェント205が格納される階層管理エージェント205は階層管理サーバ60内の階層管理プログラム604と通信する。ファイル制御プロセッサ202が、メモリ内の階層管理エージェントを動作させる。ホストインタフェース201はデータネットワーク70aを介してホスト計算機10と接続する。ディスクインタフェース205はデータネットワーク70bを介してブロックストレージ30と接続する。管理インタフェース206は管理ネットワーク80を介して装置管理サーバ50と接続する。ファイル制御プロセッサ202はブロックストレージ30のボリュームをマウントしファイルサーバ20をNAS(Network Attached Storage)として動作させる。ここではNASの詳細な動作は省略する。
 図4はブロックストレージ30の例を示す図である。メモリ303はブロック構成管理テーブル304と階層管理エージェント305を保持する。階層管理エージェント305は階層管理サーバ60内の階層管理プログラム604と通信する。ブロック制御プロセッサ302が、メモリ内の階層管理エージェント305を動作させる。物理ストレージデバイス306は1つ以上のHDD(Hard Disk Drive)307や1つ以上のSSD(Solid State Drive)308といったデバイスを備える。この物理ストレージデバイス306は同一の性質をもつ物理記憶領域でもよく、複数の異なる性質をもつ物理記憶領域からなってもよい。なお、物理ストレージデバイスの種類はHDDやSSDだけでなく任意の記憶デバイスでよい。パリティグループ309は複数の物理ストレージストレージデバイスから作成される。複数のパリティグループ310や311が作成される。論理ボリューム312はパリティグループから作成される論理的な記憶領域であり、ホスト計算機10やファイルサーバ20へ割り当てることで記憶領域として利用される。論理ボリューム313は1つ以上作成される。ホストインタフェース301はデータネットワーク70を介してホスト計算機10やファイルサーバ20と接続する。管理インタフェース315は管理ネットワーク80を介して装置管理サーバ50と接続する。
 図5は追記型記憶装置の例を示す図である。メモリ403は書込み管理プログラム410と再生プログラム411とエージェントプログラム412とチェンジャプログラム413と追記型記憶装置構成管理テーブル414を保持する。書込みプログラム410は記録読み書き部405を通じて追記型記憶媒体408にデータを書き込むプログラムである。追記型記憶媒体408はデータを記憶する記憶媒体であり、書き換えの出来ないライトワンスの記憶媒体である。ホログラムディスクやブルーレイディスクで構成され、種類の異なるディスクが混載されてよい。追記型記憶媒体408の数は記録読み書き部405の数よりも多い。再生プログラム411は記録読み書き部405を通じて媒体のデータを再生するプログラムである。エージェントプログラム412は装置管理サーバ50のストレージ管理プログラム504と書込み指示プログラム506と通信するプログラムである。チェンジャプログラム413は媒体格納部407に含まれる追記型記憶媒体408を、媒体搬送部406を利用して記録読み書き部405へ搬送、また記録読み書き部405から媒体格納部407へ搬送するプログラムである。追記型記憶装置構成管理テーブル414の詳細は後述する。追記型記憶装置内のコントローラ402が、メモリ403内のプログラムを動作させる。キャッシュメモリ404は上位階層から送られたデータを一時的にキャッシュしておく記憶媒体であり、SRAM、DRAM、フラッシュメモリ、又はHDDなどにより構成される。また、このキャッシュメモリを必ずしも追記型記憶装置に備える必要はなく、上位のブロックストレージの記憶領域の一部又は全部を追記型記憶装置のキャッシュメモリとして用いてもよい。なお、この場合であっても、追記型記憶媒体に実際に書き込む前に一時記憶するライトバッファは備えている事が望ましい。これは上位装置からのデータ受信が、追記型記憶媒体への書き込みに対して遅い場合、書き込みが効率的に行われず、さらには障害が発生する可能性があるためである。ホストインタフェース401はデータネットワーク70を介してホスト計算機10と接続する。管理インタフェース409は管理ネットワーク80を介して装置管理サーバ50と接続する。
 図6は装置管理サーバ50の例を説明するブロック図である。装置管理サーバ50は管理ネットワーク80を介してホスト計算機10、ファイルサーバ20、ブロックストレージ30、追記型記憶装置40、階層管理サーバ60と接続され、各計算機から必要な情報を取得することができ、各計算機に必要な情報(プログラムを含む)を与えることができる。
 装置管理サーバ50は、プロセッサであるCPU501、NIC(Network Interface Card)502、メモリ503、及び入出力装置520を含む。CPU501は、メモリ503上に展開されるプログラムを実行する。NIC502は、管理ネットワーク80を通じて、計算機システム1に含まれるホスト計算機10、ファイルサーバ20、ブロックストレージ30、追記型記憶装置40、階層管理サーバ60に接続するためのインタフェースであり、例えばIPプロトコルが利用される。メモリ503は、ストレージ管理プログラム504、書込み指示プログラム506、構成管理テーブル507、ファイル管理テーブル508、移動ポリシーテーブル509、判断基準テーブル510、データ群情報テーブル511、キャッシュ管理テーブル512、書込み先管理テーブル513、及びアーカイブアクセス履歴テーブル514、を格納する。なお、他のプログラム及びテーブルが格納されていてもよい。
 ストレージ管理プログラム504は、メモリ503に格納される各テーブルを使用し、各管理対象(ホスト計算機10、ファイルサーバ20、ブロックストレージ30、追記型記憶装置40、階層管理サーバ60)の情報を管理する。また、ストレージ管理プログラム504は追記型記憶装置40内のエージェントプログラム412と通信し指示出しや情報の通知を受けることができる。
 書込み指示プログラム506は、追記型記憶装置40内のキャッシュメモリ404内に溜まっているデータを追記型記憶媒体408に書き出す指示を与えるプログラムである。
 装置管理サーバ50には、当該装置管理サーバ50を操作するための入出力装置520が接続される。入出力装置520は、マウス、キーボード及びディスプレイなどの装置であり、装置管理サーバ50と管理者(ユーザとも呼ぶ)との間で情報を入出力するために利用される。
 図7は階層管理サーバ60の例を説明するブロック図である。階層管理サーバ60は、データネットワーク70または管理ネットワーク80を介してホスト計算機10、ファイルサーバ20、ブロックストレージ30、追記型記憶装置40、装置管理サーバ50と接続され各計算機から必要な情報を取得することができ、各計算機に必要な情報(プログラムを含む)を与えることができる。階層管理サーバ60には、当該階層管理サーバ60を操作するための入出力装置620が接続される。入出力装置620は、マウス、キーボード及びディスプレイなどの装置であり、装置管理サーバ60と管理者(ユーザとも呼ぶ)との間で情報を入出力するために利用される。
 階層管理サーバ60は、プロセッサであるCPU601、NIC602、メモリ603、及び入出力装置620を含む。CPU601は、メモリ603上に展開されるプログラムを実行する。メモリ603は、CPU601によって実行されるプログラム及び当該プログラムを実行するために必要な情報を格納する。具体的には、メモリ603は、階層管理プログラム604、移動ポリシーテーブル605、ファイルメタデータ606、を格納する。なお、他のプログラムが格納されていてもよい。
 階層管理プログラム604は、階層管理エージェント105、205、305、と通信し、ホスト計算機10、ファイルサーバ20のファイル情報を取得し、ホスト計算機10、ファイルサーバ20、ブロックストレージ30のファイルまたはボリュームを別のホスト計算機10、ファイルサーバ20、ブロックストレージ30、へ移動するプログラムである。ファイルメタデータ606は、ホスト計算機10、ファイルサーバ20内のファイルの属性情報を示すテーブルである。
 図8以降は各計算機内のメモリに格納されるテーブルの一例である。図8はファイルサーバ内のファイル構成管理テーブル204である。ファイル構成管理テーブル204は以下の(2040)乃至(2042)の情報を持つ。
(2040)デバイス種別。ファイルサーバが持つデバイスの種類の情報を持つ。
(2041)デバイス識別子。ファイルサーバが持つデバイスを一意に識別する情報を持つ。
(2042)スペック。ファイルシステムの場合はサイズが設定される。
 図9はブロックストレージ内のブロック構成管理テーブル304である。ブロック構成管理テーブル304は以下の(3040)乃至(3043)の情報を持つ。
(3040)デバイス種別。ブロックストレージが持つデバイスの種類の情報を持つ。
(3041)デバイス識別子。ブロックストレージが持つデバイスを一意に識別する情報を持つ。
(3042)スペック。デバイス種別によって設定される値が異なるが、ボリュームの場合はサイズ、ポートの場合は速度の値が設定される。
(3043)ボリューム最終アクセス時間。ボリュームに最後にI/Oが発生した時間の情報を持つ。ここで、ボリューム最終アクセス時間は、リード要求を受信したが対象データがキャッシュヒットしたため記憶媒体に実際にアクセスしないI/Oを含む時間としてもよい。
 図10は追記型記憶装置構成管理テーブル414である。追記型記憶装置構成管理テーブル414は以下の(4140)乃至(4444)の情報を持つ。
(4140)デバイス種別。追記型記憶装置が持つデバイスの種類の情報を持つ。
(4141)デバイス識別子。追記型記憶装置が持つデバイスを一意に識別する情報を持つ。
(4142)スペック。キャッシュ及び光ディスクの場合はサイズが設定される。
(4143)キャッシュ閾値。追記型記憶装置40のキャッシュメモリ404内にデータが保存されるときのデータ書き出しタイミングの基準となる閾値の値を持つ。
(4144)書込み単位。光ディスクなどの記憶媒体に一度に書きこむことのできる最小のサイズを示す。
 図11は構成管理テーブル507の説明である。構成管理テーブルは以下の(5070)乃至(5077)の情報を持つ。構成管理テーブルの情報は、ストレージ管理プログラム504により、ファイルサーバ内のファイル構成管理テーブル204、ブロックストレージ内のブロック構成管理テーブル304および追記型記憶装置構成管理テーブル414に基づいて生成される。
(5070)装置ID。管理対象となる装置を一意に識別する情報を持つ。
(5071)装置種別。管理対象となる装置がブロックストレージ、ファイルサーバ、追記型記憶装置のいずれかを示す情報を持つ。
(5072)デバイス種別。各管理対象装置が持つデバイスの種類の情報を持つ。
(5073)デバイス識別子。各管理対象装置が持つデバイスを一意に識別する情報を持つ。
(5074)スペック。各管理対象によって設定される値が異なるが、ボリュームの場合はサイズ、ポートの場合は速度の値、ファイルシステムの場合はサイズ、キャッシュの場合はサイズ、光ディスクの場合はサイズが設定される。
(5075)キャッシュ閾値。追記型記憶装置40のキャッシュメモリ404内にデータが保存されるときのデータ書き出しタイミングの基準となる閾値の値を持つ。
(5076)書込み単位。光ディスクなどの記憶媒体に一度に書きこむことのできる最小のサイズを示す。
(5077)ボリューム最終アクセス時間。ボリュームに最後にI/Oが発生した時間の情報を持つ。
 図12はファイル管理テーブル508の説明である。ファイル管理テーブルは以下の(5080)乃至(50892)の情報を持つ。
(5080)ファイル識別子。管理対象となるファイルを一意に識別する情報を示す。
(5081)ファイルサイズ。当該ファイルのサイズを示す。
(5082)最終アクセス時間。当該ファイルに最後にアクセスされた時間を示す。
(5083)元の保存場所。当該ファイルが生成された記憶装置の場所を示す。
(5084)現在の保存場所。当該ファイルが現存する記憶装置の場所を示す。
(5085)利用アプリ。当該ファイルを利用しているアプリの情報を示す。
(5086)バックアップ時間。当該ファイルが最後にバックアップされた時間を示す。
(5087)利用目的。当該ファイルがアーカイブ後に利用される目的(アプリ、実行時間など)を示す。
(5088)グループID。判断基準テーブル510やデータ群情報テーブル511の情報により決定される当該ファイルのファイル群を識別する情報を示す。
(5089)Host。当該ファイルが存在するホストの識別子を示す。
(50891)アーカイブ予測時間。移動ポリシーテーブル509の情報と最終アクセス時間5082から計算される当該ファイルのアーカイブ予測時間を示す。
(50892)拡張子。当該ファイルの拡張子情報があればそれを示す。
 図13は移動ポリシーテーブル509の一例である。移動ポリシーテーブルは以下の(5090)乃至(5092)の情報を持つ。
(5090)ホスト。ファイルを保持するホスト計算機10を識別する情報を示す。
(5091)階層。ホストのファイルが存在するストレージ装置を示す。
(5092)ポリシー。データの移動ポリシーを示す。図13の場合、ST1のボリュームをHost1で利用しているときのST1に含まれるデータに対して、一ヶ月アクセスが無ければST2という別の階層へデータを移動する、ということを示す。なお、この実施例ではホスト単位にポリシーを設定しているがホストによりアクセスされるファイルやディレクトリ単位でポリシーを設定しても良い。
 図14は判断基準テーブル510の一例である。判断基準テーブル510は、以下の(5100)乃至(5102)の情報を持つ。
(5100)基準ID。判断基準の識別子を示す。
(5101)基準内容。ファイル群を分けるときの基準となる情報を示す。
(5102)優先度。各判断基準の優先度を示す。優先度の数値が低いほど優先度が高い。また優先度0は最高の優先度であり、この最高の優先度を持つ基準ID3についてはこの基準にファイルが該当すればファイル群が決定する。例えば、基準ID3の目的判明済みとは、将来どんな分析アプリで利用するかどうかが既に分かっている場合である。同じ分析アプリから利用されるデータは原則同じタイミングでリードされると考え、同じグループになる様優先度が0に設定されている。基準ID2の同一タイミングバックアップとは、同じタイミングでバックアップされたデータ同士は同じアクセス傾向であったことが期待される。同じアクセス傾向はアーカイブ後も続く事が推定されるため、グループ選択の基準となる。基準ID1の同一アプリは、アクティブデータとして同じアプリから利用されていたデータは、アーカイブ後に同じタイミングでリードされる期待値が比較的高い事からグループ選択の基準となる。ここではこれらの基準を設けたが、当然他の基準を用いてもよい。ここでは全て優先度が異なる例を示したが、重複しない基準であれば、同じ優先度の基準があってもよい。
 図15はデータ群情報テーブル511の一例である。データ群情報テーブルは以下の(5110)乃至(5114)の情報を持つ。
(5110)グループID。ファイル群を識別するための識別子である。
(5111)判断結果。判断基準テーブルの情報に従いグループ分けした結果、どの基準に該当したかを示す。
(5112)基準ID1理由。基準ID1に該当した場合、その具体的内容を示す。基準IDに該当する理由毎にグループが設定される。
(5113)基準ID2理由。基準ID2に該当した場合、その具体的内容を示す。
(5114)基準ID3理由。基準ID3に該当した場合、その具体的内容を示す。
なお、判断基準テーブル510の基準IDの数によりデータ群情報テーブルの各基準ID理由カラム数は増加する。
 図16はキャッシュ管理テーブル512の一例である。キャッシュ管理テーブル512は以下の(5120)乃至(5122)の情報を持つ。
(5120)ファイル識別子。キャッシュファイルに存在するファイルの識別子を示す。
(5121)ファイルサイズ。当該ファイルのサイズを示す。
(5122)グループID。当該ファイルのファイル群を識別する識別子を示す。
 図17は書き込み先管理テーブル513の一例である。書き込み先管理テーブルは以下の(5130)乃至(5131)の情報を持つ。
(5130)グループID。ファイル群の識別子を示す。1つの識別子だけでなく、例えば”N+M”と記載すれば複数のファイル群を追記型ディスク識別子に書き込むように記載することも可能である。
(5131)追記型ディスク識別子。ファイル群を書き込むべき追記型ディスクの識別子を示す。1つの識別子だけでなく、複数の追記型ディスクの識別子を記載することも可能である。
 図18はファイルメタデータの一例である。ファイルメタデータ606は以下の(6060)乃至(6067)の情報を持つ。
(6060)ファイル識別子。ファイルの識別情報を示す。
(6061)ファイルサイズ。当該ファイルのサイズを示す。
(6062)更新日時。当該ファイルが更新された日時を示す。
(6063)最終アクセス日時。当該ファイルに最後にアクセスされた日時を示す。
(6064)保存場所。当該ファイルが現存する記憶装置の場所を示す。
(6065)利用者。当該ファイルの利用者を示す。ファイルの作成者情報を使っても良い。
(6066)ファイルパーミッション。当該ファイルへのアクセス権限を示す。
(6067)Host。当該ファイルにアクセルするホストの識別子を示す。
 図19は実施例1における、装置管理サーバ50や階層管理サーバ60による情報取得処理のフローS10を示す。なお、Step1000とStep1001の処理は定期的またはファイル作成時のいずれかに実行される。また、S1002以降の処理も定期的またはファイルメタデータ606更新時のいずれかに実行される。
(Step1000)階層管理プログラム604は各ホスト計算機10のOS103やアプリケーション104からファイル情報を定期的に収集する。
(Step1001)階層管理プログラム604はStep1000で取得した情報を利用して、ファイルメタデータ606を更新する。
(Step1002)ストレージ管理プログラム504は階層管理サーバ60のファイルメタデータ606、及びホスト計算機10のアプリケーション104の情報を収集する。
(Step1003)ストレージ管理プログラム504はStep1002で取得した情報を利用して、ファイル管理テーブル508のうち、ファイル識別子、ファイルサイズ、最終アクセス時間、保存場所情報、Host情報、利用アプリの情報を更新する。
(Step1004)ストレージ管理プログラム504は更新した利用アプリ情報がバックアップソフトを示すかどうかを調べ、バックアップソフトの場合はStep1005へ進む。そうでない場合はStep1006へ進む。
(Step1005)ストレージ管理プログラム504はホスト計算機10のアプリケーション104から光アーカイブへの移動ポリシー各ファイルのバックアップ時間を取得する。
(Step1006)ストレージ管理プログラム504は更新した利用アプリ情報がアーカイブデータ利用アプリを示すかどうかを調べ、アーカイブデータ利用アプリの場合はStep1007へ進む。そうでない場合はStep1008へ進む。
(Step1007)ストレージ管理プログラム504はホスト計算機10のアプリケーション104からアーカイブデータ利用アプリからアーカイブされたファイルの利用方法を取得する。利用方法の例として、アーカイブデータ分析アプリの場合、利用する実行ファイルと対象となるファイル、及びその実行時間などが含まれる。
(Step1008)ストレージ管理プログラム504はホスト計算機10から利用アプリを特定可能な情報(例:ファイル拡張子)を取得する。
(Step1009)ストレージ管理プログラム504は取得した各種情報を利用してファイル管理テーブル508を更新する。
 図20は実施例1におけるデータ群情報を設定する処理のフローS11を示す。なお、図20ではファイル情報が更新されたタイミングでファイル毎の処理を記載しているが、このフローは定期的にすべてのファイルに実行されてもよい。本実施例では、以下のステップを処理を生成、更新されたファイル毎、さらにホスト毎に繰り返す。
(Step1100)ストレージ管理プログラム504はファイル管理テーブル508から、判断基準テーブルの内容に関係する更新情報 (アプリ、バックアップなど)を取得し、データ群情報テーブル511の判断結果に該当する情報を作成する。このときに、判断基準テーブルの基準ID3(利用目的判明済み)に該当する情報が取得できている場合は優先度0のため基準が一意に確定するため他の基準内容はチェックする必要は無い。
(Step1101)ストレージ管理プログラム504は既に同じ基準内容のグループがデータ群情報テーブル511にあるかチェックし、ある場合はStep1103へ進む。無い場合はStep1102へ進む。
(Step1102)ストレージ管理プログラム504は新規グループを作成するために未使用のグループIDを採番し、グループIDを設定し、データ群情報テーブルにグループIDと判断結果、各基準IDの理由を設定する。 
(Step1103)ストレージ管理プログラム504は当該ファイルのファイル群を確定し、ファイル管理テーブル508にグループIDを設定する。
(Step1104)ストレージ管理プログラム504は最終アクセス時間とデータ管理ポリシーからアーカイブされる時間を導出してファイル管理テーブル508のアーカイブ予測時間カラム50891に値を設定する。 
 図21は実施例1におけるデータの階層化による移動処理のフローS12を示す。なお、図21では管理対象となるホスト毎、さらにファイル情報が生成または更新されたタイミングでファイル毎の処理を記載しているが、このフローはファイルサーバ毎や、ストレージ装置毎に実施してもよく、タイミングも定期的にすべてのファイルに実行されてもよい。実施例では、以下のステップを処理を生成、更新されたファイル毎、さらにホスト毎に繰り返す。
(Step1200)階層管理プログラム604がホスト計算機上の階層管理エージェント105経由でファイルメタデータを取得。なお、この例ではホスト毎の例を示しているがファイルサーバやストレージ装置の場合はそれぞれ階層管理エージェント205、305経由で情報を取得しても良い。 
(Step1201)階層管理プログラム604は移動ポリシーテーブル509のポリシー5092の条件に該当するファイルがあるかチェックする。
(Step1202)移動ポリシーテーブルに該当するファイルがある場合はStep1203へ進む。無い場合は次のファイルのチェックに進む。
(Step1203)階層管理プログラム604は階層管理エージェント経由でファイルを別のストレージ装置または追記型記憶装置へコピーする。以上の処理を生成、更新されたファイル毎、さらにホスト毎に繰り返す。
 図22は実施例1におけるデータ書き込み指示の処理のフローS13を示す。なお、図22の処理は追記型記憶装置にデータが移動したタイミングで実施される。
(Step1300)追記型ディスク装置40のエージェントプログラム412がストレージ管理プログラム504へファイル情報を通知する。
(Step1301)ストレージ管理プログラム504は通知されたファイル情報とファイル管理テーブルのファイル識別子に基づき、キャッシュ管理テーブルを更新する。 
(Step1302)ストレージ管理プログラム504はキャッシュメモリ404のデータ合計サイズが構成管理テーブル507記載のキャッシュ閾値5075を越えているかを確認する。越えている場合はStep1303へ進む。越えていない場合はデータ書き込みを実施しないため、当該処理を終了する。
(Step1303)ストレージ管理プログラム504が上位階層(追記型記憶装置以外の階層)のファイル群のアーカイブ予測時間と、キャッシュメモリ内のファイルサイズ合計と、構成管理テーブル507記載の追記型記憶装置の媒体のサイズ5074と、書き込み単位5076とを比較する。具体的にはキャッシュメモリ内にある全てのファイル群の合計サイズについて書き込み単位を越えているファイル群を特定する。一つも書込み単位を越えるファイル群が無い場合は、全てのファイル群が対象となる。次に、それらのファイル群の中で上位階層のファイルでアーカイブされる時間が早いものからサイズを加算していき、最も遅く追記型記憶装置の媒体サイズ5047に到達するファイル群を書き出すファイル群として決定する。最も遅く追記型記憶装置の媒体サイズ5047に到達するファイル群を書き出すファイル群として決定する理由は、媒体サイズへの到達が遅いとキャッシュに留まる時間が長くなり、キャッシュを圧迫するためである。ここで、必ずしも最も遅く追記型記憶装置の媒体サイズ5047に到達するファイル群を選択する必要はなく、たとえばキャッシュ格納時間と格納データサイズの積分で求められる、キャッシュ格納コストが高いファイル群を選択しても良い。
(Step1304)ストレージ管理プログラム504は決定したファイル群のグループIDが書込み先管理テーブルに書込み先として登録されているかチェックする。登録されていればStep1306へ進む。登録されていなければStep1305へ進む。
(Step1305)ストレージ管理プログラム504が、構成管理テーブルから書き込み先管理テーブルに登録されていない媒体を選択し、書込み先管理テーブルに今回特定したファイル群のIDと未使用の追記型ディスク識別子を登録する。 
(Step1306)書込み指示プログラム506が追記型記憶装置のエージェントプログラム412を経由し、書込みプログラム410に対して、特定したファイル群のデータを書込み先管理テーブル記載の記憶媒体へ書き出す指示を出力する。
 図23は実施例1におけるデータ書き込みの処理のフローS14を示す。なお、図23の処理は図22のフローS1306でデータ書き込み指示が送信されたタイミングで実行される。
(Step1400)書込みプログラム410が指定された記憶媒体を取りだす指示をチェンジャプログラム413に対して出す。
(Step1401)チェンジャプログラム413は媒体搬送部406を駆動させ、媒体格納部407から該当する追記型記憶媒体408を取り出し、記録読み書き部405に記憶媒体を設定する。 
(Step1402)書込みプログラム410が指定された記憶媒体にファイル群を書き込む。
 次に、図24、図25を用いてさらにRead効率を向上させるために追記型記憶装置内でのデータ書き換え処理について記載する。
 図24はアーカイブアクセス履歴テーブル514の説明である。アーカイブアクセス履歴テーブルは以下の(5140)乃至(5144)の情報を持つ。
(5140)ファイル識別子。ファイルの識別情報を示す。
(5141)ファイルサイズ。当該ファイルのサイズを示す。
(5142)グループID。ファイル群の識別情報を示す。
(5143)保存場所。追記型記憶装置内のどの媒体にファイルが保存されているかを示す。
(5144)アクセス履歴。アーカイブされたファイルがリードされた時間を履歴として保持する。
 図25は実施例1における追記型記憶装置内でのデータ書き換え処理のフローS16を示す。なお、図25の処理は追記型記憶装置内のデータがリードされたタイミングで実施されているが、Step1602以降の処理はそのタイミング以外にも、定期的に実施してもよく、また媒体寿命等で媒体を交換するタイミングで実施してもよい。
(Step1600)追記型ディスク内のファイルにアクセスがあると、エージェントプログラム413がアクセス時間を装置管理サーバのストレージ管理プログラム504へ連絡する。 
(Step1601)ストレージ管理プログラム504がアーカイブアクセス履歴テーブルのアクセス履歴を更新する。
(Step1602)ストレージ管理プログラム504がアーカイブアクセス履歴テーブルを参照し、アクセス履歴が同じ傾向のもの(例:2回以上同じタイミングでリードされる)で別ディスクに保存されているファイルがあるかをチェックする。なお、タイミングがまったく同じでなくても特定の期間の間に2回以上呼ばれてもよいし、ほかの任意の傾向でよい。同じ傾向のものがあればStep1603へ進む。同じ傾向のものが無ければ当該処理を終了する。
(Step1603)書込みプログラム410は傾向が同じファイルを一度キャッシュに読み込み、別の追記型記憶媒体へ書込む。
(Step1604)書込みプログラム410が書き込みをしたファイルのグループIDを更新し、書込み先管理テーブルも今回のファイルのグループIDと書き込みした追記型ディスク識別子に更新する。
(Step1605)書込みプログラム410が元の追記型ディスク内の該当ファイルの部分はリード不可処理を実行する。
 なお、Step1603で書込みプログラム410は、傾向が同じファイルを別の追記型ディスクに書き込むとしたが、傾向が同じファイルのうち一部のファイルが既に格納されている追記型記憶媒体にアクセス傾向が同じ他のファイルを格納できる空き領域がある場合には、傾向が同じファイルのうち一部のファイルが既に格納されている追記型記憶媒体に格納しても良い。以上の処理により、追記型記憶装置にアーカイブされるファイルを容量効率よく記憶することが可能となり、リード時の速度を向上させることが可能となる。また、追記型記憶媒体に、ホログラムディスクなど記憶容量の大きい記憶媒体を使う場合、記憶媒体に書き込む関連性のあるデータをグルーピングするために、データをキャッシュに蓄えようとすると大容量のキャッシュが必要となりコストがかかってしまう。本実施例では、未だキャッシュに格納されていないデータを考慮して、記憶媒体に格納するデータを決定する事が出来るため、グルーピングに必要なキャッシュの量を低減することが出来る。
 次に実施例2の説明をする。実施例1と実施例2の違いは追記型記憶装置へのデータ書き込み指示の処理内容である。実施例1ではファイル群を媒体へ書き込むときは特定の1つのファイル群のみ特定し書き出していたが、実施例2では複数のファイル群をまとめて1つのファイル群とし書き出す処理も含める。処理フローS15を図26に示す。なお、図26の処理は追記型記憶装置にデータが移動したタイミングで実施される。 
(Step1500)このStepは実施例1のStep1300からStep1304までの処理と同じである。
(Step1501)ストレージ管理プログラム504が上位階層(追記型記憶装置以外の階層)のファイル群のアーカイブ予測時間と、キャッシュメモリ内のファイルサイズ合計と、構成管理テーブル記載の追記型記憶装置の媒体のサイズ5074と、書き込み単位5076とを比較する。具体的にはキャッシュメモリ内にある全てのファイル群の合計サイズについて書き込み単位を越えているファイル群を特定する。
(Step1502)書込み単位を越えているファイル群が存在するかチェックし、その結果、YesであればStep1505へ進む。NoであればStep1503へ進む。
(Step1503)ストレージ管理プログラム504がファイル群情報テーブルの一部内容のみが異なるファイル群の組み合わせがあるかどうかをチェックする。あればStep1504へ進む。なければStep1505へ進む。
(Step1504)ストレージ管理プログラム504が複数ファイル群のうち、合計サイズが最も媒体サイズに近くなる複数のファイル群を同一ディスクに書き込むファイル群と決定する。 
(Step1505)ストレージ管理プログラム504が最も媒体サイズに近い単一のファイル群をディスクに書き込むファイル群と決定する。
(Step1506)ストレージ管理プログラム504が書込み先管理テーブルの1つ以上のファイル群と追記型ディスク識別子の情報を更新する。
(Step1507)ストレージ管理プログラム504が追記型ディスク装置の書き込みプログラム410に対して、特定したファイル群のデータを書込み先管理テーブル記載の記憶媒体へ書き出す指示を出す。以上が実施例2のフローの説明である。
 なお、複数ファイル群を1つにまとめるかどうかの判断(Step1502)の処理基準は他の判断基準でもよい。例えば追記型記憶装置の空き媒体が少ない場合に容量効率を重視して複数ファイル群を1つにまとめるアルゴリズムでもよい。また、アーカイブ予測時間を利用して、次にファイルがアーカイブされるときにそのファイルサイズが大きいために、キャッシュメモリあふれが発生してしまう状況になるかどうかをチェックし、キャッシュメモリ内のみでやりくりする必要がある場合に、複数ファイル群をまとめることという処理基準でもよい。また、その他の処理基準でもよい。
 以上により、追記の容量の無駄をより考慮して複数のファイル群を1つにまとめるかどうか判断することで、リード要求への応答時間を短縮しつつ、追記型記憶装置にアーカイブされるファイルを容量効率よく記憶することが可能となる。また、リード時の速度を向上させることが可能となる。実施例2は実施例1と比較し、複数のファイル群をまとめて1つの媒体に書き込むことで、追記回数が少なくなり容量の無駄を少なくできる。
 次に実施例3の説明をする。実施例1と実施例3の違いは、実施例がデータをファイル単位で扱っていたのに対して、実施例3ではデータをブロック単位で扱う。なお、実施例3ではLU単位でブロックを扱う例を示すが、LBA(Logical Block Address)単位で考えてもよい。なお、実施例1ではアプリの利用方法等多くの情報を利用してデータをグルーピングしたが実施例3ではアクセス傾向の情報のみを利用する。
 図27はブロック管理テーブル515の説明である。ブロック管理テーブルは以下の(5150)乃至(5159)の情報を持つ。
(5150)ブロック識別子。データを管理する単位に識別子を設定する。LBA単位でブロックを扱う場合はここにはLBA開始アドレスと終了アドレスを設定する。
(5151)ブロックサイズ。管理単位がLUであればLUのサイズが設定され、LBA単位で扱う場合には、5151で設定されたアドレス間のデータサイズが設定される。
(5152)最終アクセス日時。当該ブロックへ最後にI/Oが発生した日時を示す。
(5153)元の保存場所。当該ブロックが作成された装置の場所を示す。
(5154)現在の保存場所。当該ブロックの現存する装置の場所を示す。
(5155)バックアップ日時。当該ブロックが最後にバックアップされた日時を示す。
(5156)利用目的。当該ブロックのデータがアーカイブ後に利用される目的(アプリ、実行時間など)を示す。
(5157)グループID。判断基準テーブル510やデータ群情報テーブル511の情報により決定される当該ブロックのデータ群を識別する情報を示す。
(5158)Host。当該ブロックが割り当てられているホストの識別子を示す。
(5159)アーカイブ予測時間。移動ポリシーテーブル509の情報と最終アクセス時間5152から計算される当該ブロックのアーカイブ予測時間を示す。
 次に、実施例3における情報取得処理のフローについて説明する。本フローは、定期的に実行されても良く、またLU作成のタイミングで実行されてもよい。ストレージ管理プログラム504はブロックストレージ30から構成情報とLUへのアクセス時間を取得する。次に、ストレージ管理プログラム504が取得した情報を利用して、ブロック管理テーブルを更新する。
 実施例3におけるデータ群情報設定処理のフローS11(図15)については、ブロックの場合はS1100で参照するテーブルがファイル管理テーブルからブロック管理テーブルに変わること、さらに判断基準がバックアップ時間となる点が異なる。実施例3におけるデータの階層化処理のフローS12(図16)については管理対象がホスト毎やファイル毎ではなく、ストレージ毎に変わる。またS1203の階層管理エージェント経由によるファイル移動がLUの移行処理に変わる点が異なる。
 実施例1における書き込み指示の処理フローS13(図17)と異なる点は以下のとおりである。
S1302で通知するファイル情報がボリューム情報となる。
S1303で通知された情報の保存先がボリューム管理テーブルとなる。また、キャッシュ管理テーブルの識別子がファイル識別子からブロック識別子となる。
S1305ではファイル群がデータ群となる。キャッシュメモリ内ファイルがキャッシュメモリ内データ、特定するファイルが、特定するデータに変わる。
S1307ではファイル群がデータ群となる。
S1308ではファイル群がデータ群となる。
以上が、書き込み指示の処理のとなる。
 実施例2における書き込み実行処理のフローS14(図23)についてはStep1402の書き込み対象がファイル群からデータ群となる点が異なる。以上の処理により、追記型記憶装置にアーカイブされる対象をファイルだけでなくブロック単位でも扱うことができ、追記型記憶装置に容量効率よく記憶することが可能となり、リード時の速度を向上させることが可能となる。
 30…ブロックストレージ装置
 40…追記型記憶装置
 50…装置管理サーバ
 90…記憶システム
 95…ハイブリットアーカイブシステム

Claims (15)

  1.  第1の記憶装置に接続される第2の記憶装置と、
     前記第2の記憶装置に接続される追記型記憶装置と、
     前記追記型記憶装置のデータ書き込みを管理する装置管理サーバと、を含むハイブリットアーカイブシステムであって、
     前記追記型記憶装置は、ライトワンス記憶媒体を備え、
     前記第2の記憶装置は、書き換え可能な記憶媒体を備え、
     前記装置管理サーバは、前記書き換え可能な記憶媒体に格納された複数の第2記憶装置格納データのデータ管理情報に基づき、前記複数の第2記憶装置格納データから複数のデータ群を構成し、
     前記第1記憶装置に格納される複数の第1記憶装置格納データのデータ管理情報、前記ライトワンス記憶媒体の記憶容量、及び前記第1の記憶装置から前記第2の記憶装置へのデータ移動情報に基づき、前記複数のデータ群から前記ライトワンス記憶媒体に書き込むデータ群を決定し、前記第2の記憶装置に前記決定されたライトワンス記憶媒体に書き込むデータ群を前記追記型記憶装置へ送信するよう指示を送信し、
     前記第2の記憶装置は前記決定されたライトワンス記憶媒体に書き込むデータ群を前記追記型記憶装置に送信し、
     前記追記型記憶装置は受信した前記決定されたライトワンス記憶媒体に書き込むデータ群を前記ライトワンス記憶媒体に格納する、
     ことを特徴とするハイブリットアーカイブシステム。
  2.  請求項1記載のハイブリットアーカイブシステムであって、
     前記装置管理サーバは、前記第1の記憶装置及び前記第2の記憶装置の階層を管理する階層管理サーバと接続され、
     前記装置管理サーバは、前記第1の記憶装置、前記第2の記憶装置または前記階層管理サーバから、前記第1記憶装置格納データのデータ管理情報、前記第1記憶装置格納データの最終アクセス時刻、及び階層移動ポリシーを取得し、前記取得した情報に基づき前記第1の記憶装置から前記第2の記憶装置へのデータ移動情報を構成する、
     ことを特徴とするハイブリットアーカイブシステム。
  3.  請求項2記載のハイブリットアーカイブシステムであって、
     前記装置管理サーバは、
     前記第2の記憶装置から前記複数の書き換え可能な記憶媒体に格納された複数の第2記憶装置格納データのデータ管理情報を受信し、前記複数の書き換え可能な記憶媒体に格納されるデータの総容量が閾値を超えた場合、前記決定されたライトワンス記憶媒体に書き込むデータ群を前記ライトワンス記憶媒体への送信指示を、前記第2の記憶装置に送信する、
     ことを特徴とするハイブリットアーカイブシステム。
  4.  請求項3記載のハイブリットアーカイブシステムにおいて、
     前記追記型記憶装置は、前記ライトワンス記憶媒体を複数備え、
     前記複数のライトワンス記憶媒体はブルーレイディスク及びホログラムディスクを含む、
     ことを特徴とするハイブリットアーカイブシステム。
  5.  追記型記憶装置のデータ書き込みを管理する計算機であって、
     プロセッサを備え、
     前記プロセッサは前記追記型記憶装置の備える一時記憶媒体に格納された複数のデータのデータ管理情報に基づき、前記複数のデータから複数のデータ群を構成し、
     前記追記型記憶装置の備えるライトワンス記憶媒体の記憶容量、前記追記型記憶装置に接続される上位記憶装置の格納データに関する情報、及び前記上位記憶装置から前記追記型記憶装置へのアーカイブ予測情報に基づき、前記複数のデータ群から前記ライトワンス記憶媒体に格納するデータ群を決定し、
     前記決定されたデータ群の前記ライトワンス記憶媒体への格納指示を前記追記型記憶装置に送信する
     ことを特徴とする計算機。
  6.  請求項5記載の計算機であって、
     前記上位記憶装置の階層を管理する階層管理サーバ及び前記上位記憶装置と接続され、
     前記プロセッサは、前記上位記憶装置または前記階層管理サーバから、前記上位記憶装置格納データのデータ管理情報、前記上位記憶装置格納データの最終アクセス時刻、階層移動ポリシーを取得し、前記取得した情報に基づき前記追記型記憶装置へのアーカイブ予測情報を作成する、
     ことを特徴とする計算機。
  7.  請求項6記載の計算機であって、
     前記プロセッサは前記追記型記憶装置から前記一時記憶媒体に格納された複数のデータのデータ管理情報を受信し、前記一時記憶媒体に格納されたデータの総容量が閾値を超えた場合、前記決定されたライトワンス記憶媒体に格納するデータ群を前記ライトワンス記憶媒体へ格納する指示を、前記追記型記憶装置に送信する、
     ことを特徴とする計算機。
  8.  請求項7記載の計算機であって、
     前記データ管理情報とは、各データのサイズ、利用アプリ、拡張子、最終アクセス時刻、利用目的、利用ホスト、及びバックアップ時刻のうちひとつ以上を含む情報であり、
     グループ判断基準情報を格納するメモリを備えで、
     前記プロセッサは前記複数のデータに関する前記データ管理情報及び前記グループ判断基準情報に基づき、前記複数のデータから複数のデータ群を構成する、
     ことを特徴とする計算機。
  9.  請求項5記載の計算機であって、
     前記追記型記憶装置へのアクセスの履歴情報を管理するメモリを備え、
     前記プロセッサは前記追記型記憶装置へのアクセスの履歴情報に基づいて、
     前記ライトワンス記憶媒体に格納済みの複数のデータ群を構成する複数のデータから新たなデータ群を構成し、前記構成した新たなデータ群を前記ライトワンス記憶媒体に格納する指示を前記追記型記憶装置に送信する、
    ことを特徴とする計算機。
  10.  請求項6記載の計算機であって、
     前記プロセッサは
     前記複数のデータ群のうち、前記ライトワンス記憶媒体の記憶容量に格納される時刻がもっとも遅いと予測されるデータ群を、前記ライトワンス記憶媒体に格納するデータ群として決定することを特徴とする計算機。
  11.  請求項5記載の計算機であって、
     前記プロセッサは、前記複数のデータ群から前記ライトワンス記憶媒体に格納する複数のデータ群を決定し、
     前記ライトワンス記憶媒体に前記決定された複数のデータ群を格納するよう指示を前記追記型記憶装置に送信することを特徴とする計算機。
  12.  請求項5記載の計算機は、
     前記追記型記憶装置に接続される装置管理サーバであること、
    を特徴とする計算機。
  13.  追記型記憶装置の書き込みデータ決定方法であって、
     前記追記型記憶装置はライトワンス記憶媒体を備え、
     書き換え可能な第1の記憶媒体を備える第1の記憶装置及び、書き換え可能な第2の記憶媒体を備える第2の記憶装置、に接続され
     前記第2の記憶媒体に格納される複数の第2記憶装置格納データのデータ管理情報に基づき、前記第2の記憶装置に格納されるデータから複数のデータ群を構成するステップと、
     前記第1の記憶媒体に格納されるデータのデータ管理情報、前記ライトワンス記憶媒体の記憶容量、及び前記第1の記憶装置から前記第2の記憶装置へのデータ移動情報に基づき、前記複数のデータ群から前記ライトワンス記憶媒体に書き込むデータ群を決定するステップと、を備える事を特徴とする追記型記憶装置の書き込みデータ決定方法。
  14.  請求項13記載の追記型記憶装置の書き込みデータ決定方法であって、
     前記第1の記憶装置格納データのデータ管理情報、前記第1の記憶装置格納データの最終アクセス時刻、階層移動ポリシーに基づき前記第1の記憶装置から前記第2の記憶装置へのデータ移動情報を作成するステップを備える、
     ことを特徴とする追記型記憶装置の書き込みデータ決定方法。
  15.  請求項13記載の追記型記憶装置の書き込みデータ決定方法であって、
     前記第2の記憶媒体に格納されるデータの総容量が閾値を超えた場合に、前記決定されたライトワンス記憶媒体に書き込むデータ群を前記ライトワンス記憶媒体へ書きこむステップを備える
     ことを特徴とする追記型記憶装置の書き込みデータ決定方法。
PCT/JP2014/059067 2014-03-28 2014-03-28 追記型記憶装置への書き込みデータ決定方法 WO2015145707A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/059067 WO2015145707A1 (ja) 2014-03-28 2014-03-28 追記型記憶装置への書き込みデータ決定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/059067 WO2015145707A1 (ja) 2014-03-28 2014-03-28 追記型記憶装置への書き込みデータ決定方法

Publications (1)

Publication Number Publication Date
WO2015145707A1 true WO2015145707A1 (ja) 2015-10-01

Family

ID=54194296

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/059067 WO2015145707A1 (ja) 2014-03-28 2014-03-28 追記型記憶装置への書き込みデータ決定方法

Country Status (1)

Country Link
WO (1) WO2015145707A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08110839A (ja) * 1994-10-12 1996-04-30 Toshiba Corp 集合型データ処理装置
JPH08129499A (ja) * 1994-11-02 1996-05-21 Hitachi Ltd 情報処理システム
JPH096678A (ja) * 1995-06-19 1997-01-10 Toshiba Corp 階層記憶装置
JP2007066313A (ja) * 2005-08-31 2007-03-15 Internatl Business Mach Corp <Ibm> 情報を記憶する方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08110839A (ja) * 1994-10-12 1996-04-30 Toshiba Corp 集合型データ処理装置
JPH08129499A (ja) * 1994-11-02 1996-05-21 Hitachi Ltd 情報処理システム
JPH096678A (ja) * 1995-06-19 1997-01-10 Toshiba Corp 階層記憶装置
JP2007066313A (ja) * 2005-08-31 2007-03-15 Internatl Business Mach Corp <Ibm> 情報を記憶する方法および装置

Similar Documents

Publication Publication Date Title
US10649696B2 (en) Data set management
US8392685B2 (en) Arrangements for managing metadata of an integrated logical unit including differing types of storage media
JP6304406B2 (ja) ストレージ装置、プログラム、情報処理方法
US10031703B1 (en) Extent-based tiering for virtual storage using full LUNs
JP5456063B2 (ja) アロケートオンライトのスナップショットを用いた、ダイナミックストレージ階層化のための方法及びシステム
JP4749255B2 (ja) 複数種類の記憶デバイスを備えたストレージシステムの制御装置
US8239648B2 (en) Reclamation of thin provisioned disk storage
US9015413B2 (en) Management of data using inheritable attributes
US20140089628A1 (en) Data storage space recovery system and method
JP5410386B2 (ja) ストレージシステムのためのi/o変換方法及び装置
WO2015015550A1 (ja) 計算機システム及び制御方法
JP2008015769A (ja) ストレージシステム及び書き込み分散方法
WO2013042159A1 (en) Storage apparatus, computer system, and data migration method
US11461287B2 (en) Managing a file system within multiple LUNS while different LUN level policies are applied to the LUNS
US9465543B2 (en) Fine-grained data reorganization in tiered storage architectures
US20110125950A1 (en) Systems and methods for performing deduplicated data processing on tape
JP6531574B2 (ja) ストレージ装置、ストレージ装置制御プログラム及びストレージ装置制御方法
US20210103400A1 (en) Storage system and data migration method
WO2015145707A1 (ja) 追記型記憶装置への書き込みデータ決定方法
JP2021114264A (ja) ストレージ制御装置およびストレージ制御プログラム
US9513826B2 (en) Storage apparatus and storage apparatus control method
US11947799B1 (en) Systems and methods for using the TRIM command with solid state devices
WO2016067326A1 (ja) ストレージシステム
JP2016197357A (ja) データアーカイブシステム及びデータ記録方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14886905

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14886905

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP