WO2014128819A1 - 情報処理システム及びそのデータ同期制御方式 - Google Patents

情報処理システム及びそのデータ同期制御方式 Download PDF

Info

Publication number
WO2014128819A1
WO2014128819A1 PCT/JP2013/053909 JP2013053909W WO2014128819A1 WO 2014128819 A1 WO2014128819 A1 WO 2014128819A1 JP 2013053909 W JP2013053909 W JP 2013053909W WO 2014128819 A1 WO2014128819 A1 WO 2014128819A1
Authority
WO
WIPO (PCT)
Prior art keywords
file
update
computer
data synchronization
synchronization
Prior art date
Application number
PCT/JP2013/053909
Other languages
English (en)
French (fr)
Inventor
崇元 深谷
昌忠 高田
仁志 亀井
Original Assignee
株式会社 日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立製作所 filed Critical 株式会社 日立製作所
Priority to PCT/JP2013/053909 priority Critical patent/WO2014128819A1/ja
Priority to JP2015501101A priority patent/JP6033949B2/ja
Priority to US14/759,975 priority patent/US10191915B2/en
Publication of WO2014128819A1 publication Critical patent/WO2014128819A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/178Techniques for file synchronisation in file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]

Definitions

  • the present invention relates to the efficiency of data synchronization processing between file servers operating at a plurality of locations.
  • Patent Document 1 describes a system that allows a NAS (Network Attached Storage) file system at one site to be read-only referenced from another site's NAS via a CAS (Content-Addressable Storage) device at the data center. Disclosure.
  • the base that publishes the file system performs a synchronization process for synchronizing the update contents with the data center periodically (for example, once a day).
  • the other bases regularly share the update contents of the data center on their own sites to realize file sharing between the bases.
  • Patent Document 2 discloses a technique for resolving conflicts during file system data synchronization.
  • Patent Document 3 discloses a mechanism that excludes a file system name space in units of subtrees.
  • the name space here is a management structure for managing files in the file system, and generally has a tree structure in which directories are nodes and files are leaves.
  • a subtree is a part of a tree structure of a file system.
  • the synchronization range of the file system can be made finer in file units or directory units.
  • the exclusion process via the WAN has a problem that the communication delay is large. If the exclusion range is made finer, the problem of the delay time of the synchronization process can be solved, but the number of exclusion processes increases and the throughput of the synchronization process decreases. Conversely, when the exclusion range is increased, the number of exclusion processes decreases, but the problem of the delay time of the synchronization process cannot be solved.
  • the present invention has been made in view of such a situation, and performs synchronization processing of a file system by dividing it into sub-trees of an appropriate size.
  • the file system to be synchronized is divided into subtrees based on the size of the file to be synchronized, the throughput between bases and data centers, and the upper limit value of the synchronization processing time. Also, the divided subtrees are synchronized from the one with the highest frequency of conflict occurrence. In other words, the high-conflict frequency files that are likely to be accessed at other sites are set as a small exclusion range and are synchronized with priority, thereby reducing the synchronization delay time of these files.
  • files with low conflict occurrence frequency are unlikely to be accessed at other locations
  • high throughput is achieved by synchronizing many files at once.
  • files with many conflicts such as group shared files
  • reduce the delay time of synchronization processing by reducing the number of files subject to synchronization processing once, and files with few conflicts such as personal work files and archives once.
  • High throughput is achieved by increasing the number of synchronous processing target files.
  • the influence of an increase in delay time can be suppressed while suppressing a decrease in the throughput of synchronization processing, and more bases can be supported.
  • the present invention relates to a technique for managing data in a storage system in an information processing system, and more specifically to a technique for transferring data stored in a NAS to a CAS and synchronizing the data between NAS. is there.
  • information used in the present invention is described using a table or a list as an example.
  • the information is not limited to the information provided in the table structure or list structure, and depends on the data structure. It may be information that does not.
  • the NAS and CAS communication networks are not limited to the adoption of WAN, and a communication network such as a LAN (Local Area Network) can also be adopted.
  • Aspects of the present invention are not limited to adopting the NFS (Network File System) protocol, but can also adopt other file sharing protocols including CIFS (Common Internet File System), HTTP (Hypertext Transfer Protocol), and the like. .
  • NAS is used as the storage device on the site side, but this is only an example. It is also possible to use a distributed file system such as a CAS device, HDFS (Hadoop Distributed File System), or Object-based storage as the storage device on the site side. Further, although a CAS device is used as a data center storage device, this is merely an example. In addition to the CAS device, for example, a NAS device, a distributed file system, and Object-based storage can be used.
  • each process may be described with “program” as the subject, but the program is executed by the processor so that the predetermined process is performed using the memory and the communication port (communication control device).
  • the description may be based on the processor.
  • the processing disclosed with the program as the subject may be processing performed by a computer such as a management server or an information processing apparatus. Part or all of the program may be realized by dedicated hardware, or may be modularized.
  • Various programs may be installed in each computer by a program distribution server or a storage medium.
  • FIG. 1 is a block diagram showing an example of a physical configuration of an information processing system according to an embodiment of the present invention.
  • bases A and B are shown, but more bases may be included in the system, and the configuration of each base may be the same.
  • the information processing system 10 includes one or a plurality of sub computer systems 100 and 110 arranged at each base, and a data center system 120 configured by a CAS device 121, and each of the sub computer systems 100 and 110. And the data center system 120 are connected via the networks 130 and 140.
  • the sub computer systems 100 and 110 have clients 101 and 111 and NAS devices 102 and 112, which are connected by networks 105 and 115.
  • the clients 101 and 111 are one or a plurality of computers that use the file sharing service provided by the NAS devices 102 and 112.
  • the clients 101 and 111 use a file sharing service provided by the NAS devices 102 and 112 via the networks 105 and 115 using a file sharing protocol such as NFS or CIFS.
  • the administrator accesses the management interface provided by the NAS devices 102 and 112 from the clients 101 and 111, and manages the NAS devices 102 and 112.
  • Such management includes, for example, starting operation of the file server, stopping the file server, creating / publishing the file system, managing accounts of the clients 101 and 111, and the like.
  • the plurality of NAS devices 102 may be collectively referred to as the NAS device 102 in some cases.
  • the NAS devices 102 and 112 include NAS controllers 103 and 113 and storage devices 104 and 114.
  • the NAS controllers 103 and 113 provide a file sharing service to the clients 101 and 111, and have a function to cooperate with the CAS device 121.
  • the NAS controllers 103 and 113 store various files created by the clients 101 and 111 and file system configuration information in the storage devices 104 and 114.
  • the storage devices 104 and 114 provide volumes to the NAS controllers 103 and 113, and the NAS controllers 103 and 113 are locations where various files and file system configuration information are stored.
  • the volume here is a logical storage area associated with a physical storage area.
  • a file is a data management unit, and a file system is management information for managing a file in a volume.
  • a logical storage area in a volume managed by the file system may be simply referred to as a file system.
  • the data center system 120 includes a CAS device 121 and a management terminal 124, which are connected via a network 125.
  • the CAS device 121 is an archive and backup destination storage device of the NAS devices 102 and 112.
  • the management terminal 124 is a computer used by an administrator who manages the information processing system 10.
  • the administrator manages the CAS device 121 from the management terminal 124 through the network 125.
  • Examples of such management include creation of a file system assigned to the NAS devices 102 and 112.
  • the management terminal 124 has an input / output device.
  • Examples of the input / output device include a display, a printer, a keyboard, and a pointer device, but other devices (for example, a speaker, a microphone, etc.) may be used.
  • a configuration may be adopted in which a serial interface is used as the input / output device, and a display computer having a display, a keyboard, or a pointer device is connected to the interface. In this case, the display information is transmitted to the display computer, or the input information is received from the display computer. It may be replaced.
  • a network 105 is a LAN within the site of the site A100
  • a network 115 is a LAN within the site of the site B110
  • a network 125 is a LAN within the data center of the data center system 120
  • a network 130 is a WAN network between the site A100 and the data center system 120.
  • the network 140 connects the base B 110 and the data center system 120 via a WAN.
  • the type of network is not limited to the above network, and various networks can be used.
  • FIG. 2 is a block diagram showing an example of a logical configuration of the information processing system according to the embodiment of the present invention.
  • data read and written by the client 101 at the site A100 is stored as a file in the file system FS_A200 created by the NAS device 102.
  • the data read / written by the client 111 is stored in the file system FS_A′210 created by the NAS device 112 as a file in the base B110 as well.
  • a directory is a management structure for hierarchically managing a plurality of files, and is managed by the file system. The administrator designates the usage of the directory when the directory is disclosed to the clients 101 and 111.
  • the user directory in the figure is a directory for storing personal work files
  • the group directory is a directory used for group sharing.
  • the files stored in the file system FS_A 200 and the file system FS_A ′ 210 are synchronized with the data center system 120 at a certain timing (predetermined or arbitrary timing: for example, nighttime batch processing).
  • the file system FS_A ′′ 220 created by the CAS device 121 is a file system associated with the file system FS_A 200 at the site A and the file system FS_A ′ 210 at the site B.
  • the file system FS_A 200 and the file system FS_A ′ 210 periodically synchronize with the CAS device fill system FS_A ′′ 220 to reflect the updated contents. At this time, if the update content of the local site conflicts with the update content of the other site and the update content of the other site has priority, the corresponding file is saved in the conflict file save directory (conflict directory in the figure). Details of these synchronization processes will be described in detail with reference to FIG.
  • FIG. 3 is a block diagram illustrating an internal configuration example of the NAS device 102.
  • the NAS device 112 at the site B110 has the same configuration.
  • the NAS device 102 includes a NAS controller 103 and a storage device 104.
  • the NAS controller 103 includes a CPU 402 that executes a program stored in the memory 401, a network interface 403 that is used for communication with the client 101 via the network 105, a network interface 404 that is used for communication with the data center system 120 via the network 130, and storage.
  • a storage interface 405 used for connection to the device 104 and a memory 401 for storing programs and data are mounted, and these are connected by an internal communication path (for example, a bus).
  • the memory 401 includes a file sharing server program 406, a file sharing client program 407, a file system program 408, an operating system 409, a synchronization program 410, a synchronization file division program 411, a management screen display program 412, and a local site.
  • the update file list 413, the other site update file list 414, the division synchronization file list 415, and the directory management table 416 are stored. Note that the programs 406 to 412, the file lists, and the tables 413 to 416 stored in the memory may be stored in the storage device 104 and read into the memory 401 by the CPU 402 and executed.
  • the file sharing server program 406 is a program that provides a means for the client 101 to perform file operations on files on the NAS device 102.
  • the file sharing client program 407 is a program that provides a means for the NAS device 102 to perform a file operation on a file on the CAS device 121, and the NAS device at each site uses its own site on the CAS device 121 by the file sharing client program 407. In addition, it becomes possible to execute a predetermined file operation on files at other sites.
  • the file system program 408 controls the file system FS_A200.
  • the operating system 409 has an input / output control function, a read / write control function for a storage device such as a disk and a memory, and the like, and provides these functions to other programs.
  • the synchronization program 410 executes file synchronization processing between the NAS device 102 and the CAS device 121.
  • the synchronized file division program 411 is called from the synchronization program 410 and divides a file group to be synchronized into a plurality of subtrees.
  • the management screen display program 412 controls the management screen for synchronization processing. The administrator can access the management screen provided by the management screen display program 412 via the client 101.
  • the own site update list 413 is a list for the NAS device 102 to manage file update processing of its own site.
  • the other site update list 414 is a list for the NAS device 102 to manage file update information at other sites.
  • the divided synchronization file list 415 is a list for the NAS device 102 to divide and manage a file group subject to synchronization processing at its own site in units of subtrees.
  • the directory management table 416 is a table for managing the usage of the stored file and the conflict occurrence frequency for each directory disclosed to the client 101. Details of the directory management table 416 will be described later with reference to FIG.
  • the storage device 104 includes a storage interface 423 used for connection to the NAS controller 103, a CPU 422 that executes instructions from the NAS controller 103, a memory 421 that stores programs and data, and one or more disks 424. Are connected by an internal communication path (for example, a bus).
  • the storage device 104 provides a block-type storage function such as FC-SAN (Fibre Channel Storage Area Network) to the NAS controller 103.
  • FC-SAN Fibre Channel Storage Area Network
  • FIG. 4 is a block diagram illustrating an example of the internal configuration of the CAS device 121.
  • the CAS device 121 includes a CAS controller 122 and a storage device 123.
  • the CAS controller 122 is used for communication with the management terminal 124 through the network 502 used for communication with the NAS devices 102 and 112 via the network 502 and 112 through the CPU 502 that executes the program stored in the memory 501, and the networks 130 and 140.
  • a network interface 504, a storage interface 505 used for connection with the storage device 123, and a memory 501 for storing programs and data are mounted, and these are connected by an internal communication path (for example, a bus).
  • the memory 501 stores a file sharing server program 506, a file system program 507, an operating system 508, a synchronized file list 509, and a lock list 510.
  • the programs 506 to 508 and the lists 509 to 510 may be stored in the storage device 123 and read out to the memory 501 by the CPU 502 and executed.
  • the file sharing server program 506 is a program that provides a means for the NAS devices 102 and 112 to perform file operations on files on the CAS device 121.
  • the file system program 507 controls the file system FS_A ′′ 220.
  • the operating system 508 provides other programs with an input / output control function and a read / write control function for a storage device such as a disk and a memory.
  • the synchronized file list 509 is a list for managing file update processing performed by the NAS device 102 and the NAS device 112 through synchronization processing.
  • the lock list 510 is a list for managing the subtree of the file system FS_A ′′ 220 acquired by the NAS device 102 and the NAS device 112 as a lock.
  • the storage device 123 includes a storage interface 523 used for connection with the CAS controller 122, a CPU 522 that executes instructions from the CAS controller 122, a memory 521 that stores programs and data, and one or more disks 524. Connected by a common communication path (for example, a bus).
  • the storage device 123 provides the CAS controller 122 with a block-type storage function such as FC-SAN (Fibre Channel Storage Area Network).
  • FIG. 5 is a diagram illustrating a configuration example of the local site update file list 413 of the NAS device 102.
  • the NAS device 112 also manages the same local site update file list 413.
  • the own site update file list 413 includes, as configuration items, a file name 413A, an update date / time 413B, an update target 413C, and an update content 413D.
  • Each entry in the local site update file list 413 corresponds to an update process for a file or directory generated in the NAS device 102.
  • the file name 413A is identification information for identifying the file / directory to be updated, and includes the path of the file or directory.
  • the path here is a character string for indicating the location of the file or directory in the file system. In the path, all directories from the root of the file system to the corresponding file / directory are described.
  • the update date / time 413B is information indicating the date / time when the file or directory was updated.
  • the update target 413C is information indicating the update target, and includes one of a file and a directory.
  • the update content 413D is the update content performed on the update file, and one of write, delete, rename source, and rename destination is designated. Note that the writing here includes an operation of increasing or decreasing the files in the directory.
  • the own site update file list 413 is newly created at the timing when the NAS device 102 performs the synchronization process. That is, the local site update file list 413 is a list of update processes that have occurred since the last synchronization process.
  • Such a local site update file list 413 allows the NAS device 102 to manage update processing that has occurred at the local site since the previous synchronization processing. As a result, the NAS device 102 can notify the CAS device 121 and, by extension, other sites of update processing that has occurred at its own site.
  • FIG. 6 is a diagram illustrating a configuration example of the other site update file list 414 of the NAS device 102.
  • the NAS device 112 also manages a similar other site update file list 414.
  • Each entry in the other site update file list 414 corresponds to a file updated at another site.
  • the other site update file list 414 includes a site 414A, a synchronization number 414B, a file name 414C, an update date 414D, and an update target 414E as configuration items.
  • the base 414A is information indicating the name of the base where the update has occurred.
  • the synchronization number 414B is an identifier for uniquely indicating the synchronization processing performed by the NAS device 102 to all the NAS devices 102 in time series.
  • the NAS device 102 uses a value obtained by adding 1 to the newest synchronization number as the synchronization number 414B during the synchronization process.
  • the file name 414C is information indicating the path of the updated file.
  • the update date and time 414D is information indicating the date and time when the update occurred at another base.
  • the update target 414E is information indicating the update target and includes either one of a file or a directory.
  • the NAS device 102 acquires the update content of the other site from the synchronized file list 509 of the CAS device 121 during the synchronization process, and adds the file updated at the other site to the other site update file list 414.
  • the NAS device 102 performs processing for acquiring the latest file from the CAS device 121 when accessing a file described in the other site update file list 414.
  • the other site update file list 414 makes it possible to acquire an update file generated at another site as needed when accessed from the client 101. As a result, the NAS device 102 can immediately access the update files at other sites to the client 101 without reading all the update files from the CAS device 121.
  • the reflection process of the update file of another base using the other base update file list 414 is an example.
  • the present invention can also be applied to a synchronization method in which an update file is transferred to the CAS device 121 each time the NAS device 102 performs synchronization processing.
  • FIG. 7 is a diagram illustrating a configuration example of the divided synchronization file list 415 of the NAS device 102.
  • the NAS device 112 also manages the same divided synchronization file list 415.
  • Each entry in the divided synchronization file list 415 corresponds to an update process that has occurred at the local site during the synchronization process newly performed from the previous synchronization process.
  • the divided synchronization file list 415 includes subtree numbers 415A, exclusion ranges 415B, file names 415C, update dates 415D, update targets 415E, and update contents 415F as configuration items.
  • the subtree number 415A indicates an identification number for uniquely identifying the subtree in the divided synchronization file list 415.
  • the exclusion range 415B indicates an exclusion range necessary when synchronizing the subtree in which the update process has occurred.
  • the exclusion range 415B includes one or more exclusion target sub-tree root directory paths.
  • the file name 415C is information indicating the path of the file / directory to be processed by the corresponding update process.
  • the update date and time 415D indicates the date and time when the corresponding update process was performed.
  • the update target 415E is information indicating whether the updated content is a file or a directory.
  • the update content 415F is the update content performed on the update file, and one of write, delete, rename source, and rename destination is designated.
  • the NAS device 102 creates a copy of the local site update file list 413 (hereinafter referred to as local site update file list copy) during the synchronization process. Thereafter, the NAS device 102 divides the update process included in the local site update file list replica into subtree units, and creates a divided synchronization file list 415.
  • FIG. 8 is a diagram illustrating a configuration example of the directory management table 416 of the NAS device 102.
  • the NAS device 112 also manages a similar directory management table 416.
  • Each entry in the directory management table 416 corresponds to a subtree whose usage is set by the administrator.
  • the directory management table 416 includes a top directory 416A, a usage 416B, a conflict frequency 416C, a synchronization time upper limit 416D, and an average throughput 416E as configuration items.
  • the top directory 416A is information indicating the path of the top directory of the subtree to be controlled by the synchronization process.
  • the top directory 416A may be set to a public directory path or an arbitrary directory / file path set by the administrator.
  • “* (asterisk)” is included in the path of the top directory 416A, the contents of the corresponding entry are applied to all directories having paths that match paths other than “*”.
  • the usage 416B is information indicating the usage of the files under the top directory 416A, and any one of personal, group sharing, archive, and backup is designated.
  • the usage 416B is designated by the administrator via a public directory setting interface described later when the directory is published.
  • the conflict frequency 416C is information indicating the conflict occurrence frequency during the synchronization process.
  • a predetermined value set in advance for the application 416B is set.
  • the conflict occurrence frequency is “low” for personal use, and “high” for group sharing.
  • the synchronization time upper limit 416D is the upper limit of the processing time per synchronization process for the corresponding top directory.
  • the NAS device 102 determines the size of the subtree to be subjected to the synchronization process so as to satisfy the synchronization time upper limit 416D in the synchronization division process described later.
  • the synchronization time upper limit 416D is set to a predetermined value determined in advance for the application 416B.
  • the average throughput 416E is information indicating the throughput of the corresponding directory synchronization processing.
  • the NAS device 102 recalculates the average throughput and rewrites the average throughput 416E with the calculation result when the synchronization process for the corresponding directory occurs.
  • the recalculation of the average throughput may be performed with statistical information accumulated from the past to reflect a long-term trend, or may be performed with, for example, the past five statistical information in order to grasp the latest trend. Good.
  • the conflict occurrence frequency 416C may be set based on statistical information, or an average value may be set.
  • the directory management table manages the requirements for synchronization processing for each directory, and it is possible to construct a subtree of an appropriate size according to the purpose of the file during synchronization processing.
  • the usage 416B, the conflict occurrence frequency 416C, and the synchronization time upper limit 416D are set for the top directory 416A, but this is not restrictive.
  • the usage 416B, the conflict occurrence frequency 416C, and the synchronization time upper limit 416D may be set for each directory or file other than the top directory.
  • FIG. 9 is a diagram illustrating a configuration example of the synchronized file list 509 of the CAS device 121.
  • Each entry in the synchronized file list 509 corresponds to the update process performed on the CAS device 121 by the synchronization process of the NAS device 102. These update processes are recorded in the order in which they are performed on the CAS device 121.
  • the synchronized file list 509 includes, as configuration items, a base 509A, a synchronization number 509B, a file name 509C, an update date 509D, an update target 509E, and an update content 509F.
  • the base 509A is information indicating the base where the update process has been performed. Similar to the synchronization number 414B, the synchronization number 509B is information indicating an identifier for uniquely identifying the synchronization processing across all the NAS devices 102 over time.
  • the file name 509C indicates the path of the file / directory to be updated. Note that the path stored in the file name 509C is the path of the FS_A ′′ 220 of the CAS device 121 when the update process is performed.
  • the update date and time 509D is information indicating the date and time when the update process occurred in the NAS device 102.
  • the update target 509E is information indicating whether the updated content is a file or a directory.
  • the update content 509F is the content of the update process, and one of write, delete, rename source, and rename destination is designated.
  • the NAS device 102 performs an update process corresponding to the update process generated at the local site during the synchronization process on the CAS device 121 and adds the contents to the synchronized file list 509.
  • the update processing generated in the NAS device 102 is recorded in the synchronized file list 509 in time series.
  • update processes are recorded as update processes for the FS_A ′′ 220 of the CAS device 121, not the update process itself of the NAS device 102.
  • the NAS device 102 synchronizes the update process for the renamed path when the file to be updated is stored in the FS_A ′′ 220 of the CAS device 121 with a different path due to the rename process of another base.
  • the synchronized file list 509 allows the NAS device 102 to record the update processing generated at its own site in the CAS device 121 and notify the NAS device 102 at another site.
  • FIG. 10 is a diagram illustrating a configuration example of the lock list 510 of the CAS device 121.
  • Each entry in the lock list 510 corresponds to a subtree in the FS_A ′′ 220 of the CAS device 121 to be excluded during synchronization processing.
  • the NAS device 102 cannot perform the synchronization process on the subtree including the corresponding subtree.
  • the lock list 510 has a subtree root 510A, a lock owner 510B, an acquisition date 510C, and a retention period 510D as constituent items.
  • the subtree root 510A is information indicating the top directory of the subtree to be excluded. Note that when a single file, not a subtree, is to be excluded, the information indicates the path of the file.
  • the lock owner 510B is information indicating the NAS device 102 that has acquired the lock, and indicates an identifier (such as a host name) for uniquely indicating the NAS device 102 in the system.
  • the acquisition date 510C is information indicating the date and time when the lock was acquired.
  • the holding period 510D is information indicating the effective period of the lock after acquiring the lock. *
  • the NAS device 102 When performing the synchronization process, the NAS device 102 adds (locks) an entry to the lock list 510 and deletes (unlocks) the entry after the synchronization process.
  • the NAS device 102 synchronizes the subtree, if there is a subtree in which the other NAS device has acquired a lock in the subtree, the NAS device 102 does not perform the synchronization process. Further, if the NAS device 102 that has acquired the lock does not extend the lock period (overwrite of the acquisition date 510C) or unlocks even after the holding period 510D, the lock becomes invalid. This is to prevent another NAS device 102 from being unable to perform synchronization processing forever when a failure occurs in the NAS device 102 that has acquired the lock and recovery is not possible within the retention period.
  • the lock list 510 enables exclusion of synchronization processing between NAS devices 102 in units of subtrees.
  • FIG. 11 is a flowchart for explaining file read / write processing of the NAS device 102 according to the present invention.
  • the NAS device 102 receives a file read / write request from the client 101, the NAS device 102 performs the read / write processing shown in FIG. In the following, the process illustrated in FIG. 11 will be described in order of step number.
  • Step S1000 The file system program 408 receives a file read / write request from the client 101 via the file sharing server program 406.
  • the read request includes the file name to be read and the start position and length in the file of the read target data.
  • the write request includes the file name to be written, the head position in the file of the write target data, and the write data.
  • Step S1001 The file system program 408 searches the other site update file list 414 and determines whether or not the read / write target file at the other site is updated.
  • the file system program 408 checks the other site update file list 414 for an entry having the same file name as the read / write target file. This process is performed to determine whether the read / write target file at the local site has already been updated at the other site and it is necessary to obtain the latest version from the CAS device 121.
  • Step S1002 If the read / write target file is not in the other site update file list 414, the file system program 408 proceeds to the process of step S1005. In this case, since the file at the local site is the latest, normal read / write is performed on the file of the local site FS_A200. If the read / write target file is in the other site update file list 414, the file system program 408 proceeds to the process of step S1003. In this case, since the file in the FS_A 200 at the local site is not the latest, the latest version file is acquired from the CAS device 121 and the read / write process is performed.
  • Step S1003 The file sharing client program 407 reads the latest version of the read / write target file from the CAS device 121, and stores the data in the FS_A 200.
  • an error is returned to the client 101, and the read / write process is terminated.
  • the file system program 408 determines that the read / write target file is in an inconsistent state, and prohibits access to the file until the next synchronization processing.
  • Step S1004 The file system program 408 deletes the file entry acquired in step S1003 from the other site update file list 414. This is because the corresponding file in the FS_A 200 at the local site is replaced with the latest version file in step S1003. This process eliminates the need for CAS access in the subsequent read / write processes of the file.
  • Step S1005 The file system program 408 determines whether the request from the client is a file read request or a file write request. In the case of a file read request, the file system program 408 moves to the process of step S1008, and in the case of a file write request, moves to the process of step S1006.
  • Step S1006 The file system program 408 performs the writing process of the corresponding file of the FS_A 200 in accordance with the client write request.
  • Step S1007 The file system program 408 adds the update process performed in step S1006 to the local site update file list 413, and proceeds to the process of step S1009.
  • Step S1008 The file system program 408 reads the data of the read target file.
  • Step S1009 The file system program 408 returns a file read / write processing response to the client 101 via the file sharing server program 406.
  • the NAS device 102 may reflect the update processing that has occurred at another site and the update processing that has occurred at its own site in the local site update file list 413 during the read / write processing. It becomes possible.
  • the read / write process for the file is similarly applied to the directory.
  • ⁇ File deletion / renaming process When the NAS device 102 receives a file deletion / rename request from the client, the NAS device 102 deletes / renames the corresponding file of the FS_A 200 at the local site. Thereafter, update processing information is added to the local site update file list 413.
  • the rename process if the file / directory that is the rename source or the file / directory in the directory that is the rename source is included in the entries of the other site file list 414, the corresponding entry is renamed to the rename destination. Performs conversion to a path.
  • the path before renaming included in the file name 414C of the other site update file list 414 is replaced with the path name after renaming. For example, if there is a renaming process that moves / home / userA / File_A to / home / userA / File_B, and / home / userA / File_A is included in the other site update file list 414, the file name 414C of the corresponding entry is / home Rewrite to / userA / File_B.
  • the file name 414 of the entry included in the other site update file list 414 and the file name in the FS_A 200 can be matched.
  • the rename / deletion process for the file is similarly applied to the directory.
  • FIG. 12 is a flowchart for explaining the synchronization processing of the NAS device 102. In the following, the process illustrated in FIG. 12 will be described in order of step number.
  • Step S2000 The synchronization program 410 of the NAS device 102 starts periodically, and starts a synchronization process for reflecting the update process of the local site generated after the previous synchronization process to the CAS device 121.
  • the execution interval of the synchronization process is set by the administrator via the management screen display program 412.
  • the synchronization program 410 creates a copy of the local site update file list and deletes all entries in the local site update file 413. By this processing, a file group to be synchronized can be determined.
  • Step S2100 The synchronization program 410 calls the synchronization file division program 411, divides the copied entry of the local site update file list 413 into subtree units according to the directory management table 416 (FIG. 8), and creates a division synchronization file list 415. .
  • the file group to be synchronized can be divided into subtree units of a size that can be synchronized within the synchronization time upper limit 416D. Details of this processing will be described later with reference to FIG.
  • Step S2200 The synchronization program 410 performs a synchronization process to the CAS device 121 for each subtree created in step S2100.
  • the NAS device 102 excludes the file system FS_A ′′ 220 of the CAS device 121 in units of subtrees, and performs synchronization processing on the excluded subtrees. Also, in this process, the synchronization process order is controlled in accordance with the frequency of occurrence of subtree conflicts. Details of this step will be described later with reference to FIG.
  • the NAS device 102 can reflect the update processing for the FS_A 200 generated after the previous synchronization processing in the FS_A ′′ 220 of the CAS device 121 in units of subtrees.
  • FIG. 13 is a flowchart for explaining details of the synchronous division processing described in step S2100. In the following, the process illustrated in FIG. 13 will be described in order of step number.
  • Step S2101 The synchronous file division program 411 reads the local site update file list copy created in step S2000, and extracts files and directories that have been updated since the previous synchronization process. Note that the path in the FS_A 200 at the time when the update process occurs is recorded in the file name of the local site update file list copy. If the update file directory or its upper directory has been renamed after the update process, the file name of the local site update file list copy and the actual path will be different. Therefore, the synchronous file division program 411 replaces the path name of the rename source file / directory with the path name of the rename destination file / directory for the entry before the rename process of the local site update file list replication occurs. I do.
  • Step S2102 The synchronous file division program 411 rearranges the entries included in the update file / directory list extracted in step S2101 so that they are consecutive for each subtree.
  • the synchronous file division program 411 first sorts the entries by path, and sequentially arranges files under the same directory. This is because the partial path to the corresponding directory is the same for the files under the same directory.
  • S2116 The synchronous file division program 411 checks the top directory of the directory management table 416. If another top directory is included in a certain top directory, the entries under the other top directories are rearranged after the top directory entry.
  • Step S2103 The synchronous file division program 411 creates a work list on the memory as a work area for creating a subtree.
  • the work list is a list for storing reference pointers of files included in the subtree under construction.
  • Step S2104 The synchronous file division program 411 selects the first entry synchronous division process target file (processing file) in the processing target file list created in step S2102. At this time, the directory management table 416 is checked to check the top directory to which the file being processed belongs.
  • Step S2105 The synchronous file division program 411 adds the file being processed to the work list.
  • Step S2106 If the current file being processed is the last file in the processing target file list, the synchronous file division program 411 determines that the file being processed is the last file in the subtree, and proceeds to the processing in step S2110. Otherwise, the process proceeds to step S2107.
  • Step S2107 The synchronous file division program 411 checks whether or not the next file in the processing target file list is included in the same top directory as the currently processed file.
  • the top directory here corresponds to the top directory 416A of the directory management table 416. If they are not included in the same top directory, the file being processed is determined to be the last file in the subtree, and the process proceeds to step S2110. Otherwise, the process proceeds to step S2108.
  • Step S2108 The synchronous file dividing program uses Equation 1 below to estimate the synchronization time when the file included in the work file list and the next processing target file are added.
  • Estimated synchronization time ((sum of file sizes included in work file list) + size of next processing target file) / average throughput. . . Formula 1
  • the average throughput uses the value of the average throughput 416E described in the directory management table 416.
  • Step S2109 The synchronous file division program 411 determines whether or not the synchronization time estimate obtained in S2108 is greater than the synchronization time upper limit 416D of the top directory to which the file being processed belongs. If the synchronization time estimate is larger than the data synchronization time upper limit 416D, the synchronization file division program 411 determines that the file being processed is the last file in the subtree, and proceeds to the process of step S2110. Otherwise, the process proceeds to step S2115.
  • Step S2110 The synchronous file division program 411 creates a subtree to be synchronized from the files included in the work list.
  • the subtree is the smallest subtree that includes all the files included in the work list in the tree structure of the file system.
  • the subtree becomes the top directory at the maximum.
  • Step S2111 The synchronous file division program 411 sets the subtree created in S2110 as the exclusive range. Also, the synchronous file division program 411 checks the local site update file list copy, and if the file / directory in the subtree being created is renamed from outside the subtree, the rename source path is also set as the exclusive range. This is to prevent the rename source file / directory from being updated by the synchronization processing of another base during the synchronization processing.
  • Step S2112 The synchronization file division program 411 outputs a division synchronization file list 415 for each subtree determined in step S2107.
  • the synchronous file division program 411 assigns a unique subtree number within the synchronization process for each subtree and outputs the subtree number to the subtree number 415A.
  • the exclusion range determined in step S2111 is output to the exclusion range 415B.
  • the file name 415C stores the path of the update file checked in step S2101, and the update date 415D, the update target 415E, and the update content 415F store the contents of the local site update file list 413.
  • Step S2113 The synchronous file division program 411 initializes the work list and starts to create the next subtree.
  • Step S2114 If there is an unprocessed update file in the synchronization target file group, the synchronous file division program 411 proceeds to the process of step S2115, and otherwise ends the synchronous division process.
  • Step S2115 The synchronous file division program 411 performs the processing from step S2105 on for the next update file of the synchronization target file group.
  • the NAS device 102 can divide the synchronization process as large as possible within a range that satisfies the synchronization time upper limit 416D.
  • FIG. 14 is a flowchart for explaining the details of the subtree unit synchronization processing described in step S2200. In the following, the process illustrated in FIG. 14 will be described in order of step number.
  • Step S2201 The synchronization program 410 checks the divided synchronization file list 415 and the directory management table 416, and checks the conflict frequency 416C of each subtree. Note that the update frequency of the subtree is determined to be equivalent to the conflict frequency 416C of the top directory 416A including the subtree.
  • Step S2202 The synchronization program 410 sorts the subtrees in descending order of the conflict frequency based on the conflict frequency checked in S2201. If there are a plurality of sub-trees having the same conflict frequency, priority is given to the one having the smallest total file size in the sub-tree. As a result, since a file having a high frequency of conflict occurrence can be synchronized with another base, the probability of occurrence of conflict can be reduced.
  • Step S2203 The synchronization program 410 checks the lock list 510 of the CAS device 121 and determines whether or not a lock can be acquired for the exclusive range 415B of the sub-tree to be processed. A lock is determined to be acquirable only when all the subtree roots 510A in the lock list 510 are not included in the exclusive range 415B.
  • the synchronization program 410 When locks can be acquired for all exclusive ranges 415B, the synchronization program 410 adds an entry with the exclusive range 415B as the subtree root 510A and itself as the lock owner 510B to the lock list 510. It should be noted that the execution date and time of this process is designated as the acquisition date and time 510C, and a period preset in the system (for example, a value designated by the synchronization time upper limit 416D) is designated as the retention period 510D.
  • the NAS device 102 puts a lock file with a specific name on the CAS device 121 when only the lock list 510 has an update authority at the start of the operation of the lock list 510. create.
  • the NAS device 102 deletes the lock file as soon as the operation on the lock list 510 is completed.
  • the other sites do not operate the lock list 510 while the lock file exists.
  • Step S2204 If the lock program succeeds in acquiring the lock in step S2203, the synchronization program 410 proceeds to step S2205 in order to synchronize the sub-tree being processed with the CAS device 121. If the lock acquisition fails, the process proceeds to step S2211, and the process proceeds to the next subtree.
  • Step S2205 The synchronization program 410 reads the synchronized file list 509 from the CAS device 121.
  • Step S2206 The synchronization program 410 reflects the contents of the synchronized file list 509 read in step S2205 in the file system FS_A200 and the other site update file list 414. Further, when the renamed / deleted process is included in the synchronized file list 509, the contents thereof are also reflected in the local site update file list 413 and the divided synchronized file list 415. Details of the synchronized file list reflection processing will be described later with reference to FIG.
  • Step S2207 The synchronization program 410 performs a synchronization process in which the update process for the processing subtree in the divided synchronization file list 415 is reflected on the CAS device 121.
  • the synchronization program 410 reads the divided synchronization file list 415 and performs processing equivalent to the file update processing in the subtree performed after the previous synchronization processing on the CAS device 121.
  • the synchronization program 410 stores the update target file in the CAS device 121 when the update content 415F is a write. When the update content 415F is rename / delete, the same processing is performed on the CAS device 121.
  • the path name in the FS_A 200 at the time of the update process is recorded. Therefore, similarly to step S2101, a process of converting the file name 415C into a path in the FS_A 200 at the time of the synchronization process is performed.
  • the FS_A ′′ 220 is recorded with a different path. Therefore, the rename process that has occurred since the previous synchronization process is checked from the synchronized file list 509, and the process of converting the file name 415C into the path of FS_A ′′ 220 is also performed. The update process is performed on the file directory of the FS_A ′′ 220 finally obtained.
  • Step S2208 The synchronization program 410 adds the update process to the CAS device 121 performed in step S2207 to the synchronized file list 509 on the CAS device 121. Note that the update process to the synchronized file list 509 is performed exclusively with other sites in the same manner as in step S2203.
  • the synchronization program 410 records the cumulative transfer amount and transfer time of the subtree as statistical information, and calculates the average transfer throughput.
  • the synchronization program 410 records the average transfer throughput in the average throughput 416E of the directory management table 416.
  • Step S2209 The synchronization program 410 deletes the entry added in step S2203 from the lock list 510 of the CAS device 121 and unlocks it. As in step S2203, the operation of the lock list 510 is performed exclusively with other sites.
  • Step S2210 If there is an unprocessed subtree, the synchronization program 410 moves the process to S2211 for processing of the next subtree, and ends the synchronization process otherwise.
  • Step S2211 The synchronization program 410 selects the subtree with the highest conflict frequency among the unprocessed subtrees as the next subtree, and repeats the processing from step S2203 onward.
  • the lock is acquired and released for each subtree synchronization process, but this is merely an example.
  • the synchronization program 410 performs synchronization processing for all subtrees and then releases the locks of these subtrees.
  • a plurality of subtrees under different top directories may be acquired collectively, and the lock target can be set more finely than changing the range of the subtree.
  • the determination of the range in which a plurality of locks are collected may take into account the time for synchronization in addition to the above-described conflict frequency. Also, this determination may be made at the stage of sorting the subtree in S2202, for example.
  • FIG. 15 is a flowchart for explaining details of the synchronized file list reflection processing of the CAS device 121. In the following, the process illustrated in FIG. 15 will be described in order of step number.
  • Step S3000 The synchronization program 410 is an update process included in the subtree being processed in the update process for the CAS device 121 generated after the previous synchronization process performed in the synchronized file list 509 read in step S2205. Check out. Thereafter, the synchronization program 410 checks whether or not the processing target file for the update process performed by the CAS device 121 is included in the local site update file list 413, and determines whether or not a conflict has occurred.
  • the corresponding update process is extracted as a conflict process.
  • the update process is processed as another site priority conflict. Otherwise, it is processed as a local conflict.
  • the rename process / deletion process it is determined whether the local site priority conflict or the other site priority conflict occurs. If both the local site update file list 413 and the synchronized file list 509 are being renamed, the file name of the subsequent entry is converted to the file name before the rename and then the same file. Determine whether or not.
  • Step S3001 The synchronization program 410 copies the file or directory that has been processed in the other site priority conflict found in Step S3000 to a dedicated save directory.
  • the save directory is a system directory prepared for each file system as a directory for storing conflict occurrence files.
  • Step S3002 The synchronization program 410 sets the first entry among the process target entries in the synchronized file list 509 found in step S3000 as the next process target, and proceeds to the process of step S3003.
  • Step S3003 If the update process being processed is a local site priority conflict, the synchronization program 410 determines that it is not necessary to reflect the update process of another site, and proceeds to the process of step S3007. Otherwise, the process proceeds to step S3004.
  • Step S3004 Based on the update content 509F, the synchronization program 410 determines whether the update process is a write to a file or directory, or a delete or rename process. If the update process is writing, the process proceeds to step S3005. If not, the process proceeds to step S3006.
  • Step S3005 The synchronization program 410 adds the update target file 509C of the update process currently being processed to the other site update file list 414.
  • the file system program 408 can determine whether the file or directory to be accessed is the latest state by referring to the other site update file list 414. If renaming has occurred for the file to be updated or the upper directory at the local site or another site, the file name 509C in the synchronized file list 509 may be different from the path in the file system FS_A200. In that case, the path is converted into a path in the FS_A 200 and registered in the other site update file list 414.
  • Step S3006 The synchronization program 410 performs the deletion / renaming process of the synchronized file list 509 on the file system FS_A200. Prior to these processes, as in the case of step S3005, if a rename process has occurred at the local site / other sites, the process is performed using the path in the FS_A200.
  • Step S3007 The synchronization program 410 repeats the processing after step S3002 when there is an unprocessed update processing for the processing target subtree of the synchronized file list 509, and performs synchronized file list reflection processing otherwise. finish.
  • FIG. 16 is a schematic diagram showing a management interface for setting a directory to be disclosed to the client 101.
  • the public directory setting interface 4160 is provided to the administrator via the client 101 by the management screen display program 412.
  • the administrator can set the contents of the directory management table 416 by specifying the usage when setting the public directory of the FS_A 200.
  • the public directory setting interface 4160 includes a text input box 4160A and check boxes 4160B to 4160E.
  • the text input box 4160A is a text input box for setting a path name of a directory to be disclosed.
  • An asterisk (“*”) may be used for the text input box 4160A.
  • the input content of the text input box 4160A corresponds to the top directory 416A of the directory management table 416.
  • Check boxes 4160B to 4160E are check boxes for specifying the usage of the directory input in the text input box 4160A. If any one of these check boxes is specified, the other check boxes are invalidated.
  • the check boxes 4160B to 4160E correspond to values that can be specified in the directory management table 416, respectively.
  • a directory path name can be set in the text input box 4160A, and the usage corresponding to the set path name, the conflict frequency, the upper limit of the data synchronization processing time, and the like can be displayed.
  • FIG. 16 the application setting at the timing of opening the top directory has been described. However, the same management interface may be provided to the administrator in the application setting for directories and files below the top directory.
  • the directory below the top directory is disclosed as a share, it is set at the directory publication timing.
  • the administrator can arbitrarily set it during operation in response to a request transmitted from the client 101. And provide a management interface.
  • a management interface may be provided in response to a request transmitted from the client 101 so that the administrator can set the file as needed during operation.
  • file synchronization for applications with a low conflict frequency is performed in units of large subtrees.
  • the number of lock acquisitions can be reduced, and a decrease in throughput due to the overhead of synchronous processing division can be suppressed.
  • the present invention it is possible to reduce the data synchronization delay time between a plurality of bases while suppressing a decrease in data synchronization throughput due to lock acquisition. As a result, more bases can be supported.
  • the sub-tree unit is calculated from the use, the frequency of occurrence of conflict, the directory and file size, the synchronization upper limit time, the average throughput, etc., but it is not always necessary to consider all these factors.
  • the entire top directory may be determined as one subtree. This is because in the case of a personal top directory, there is only one user accessing it, and it is difficult to imagine a scene in which an update from another base occurs during an update from a base, and the entire top directory is locked for a long time. This is because problems are less likely to occur.
  • the subtree can be determined easily, and the synchronization process can be realized in a shorter time.
  • the NAS device 102 estimates the frequency of file conflict occurrence from the use of the public directory set by the administrator, and determines the upper limit of the synchronization processing time.
  • the NAS device 102 estimates the file conflict occurrence frequency based on the statistical information of the number of conflict occurrences during the synchronization process.
  • the directory management table 416 does not manage the usage 416B, and the conflict frequency 416C and the synchronization time upper limit 416D are set based on the statistical information.
  • the synchronization program 410 updates the conflict frequency 416C and the synchronization time upper limit 416D based on the average conflict occurrence frequency per synchronization process. For example, when the average conflict occurrence frequency per synchronization process is 1 or less, the conflict occurrence frequency 416C is “low”. When the average conflict occurrence frequency is 3 or more, the conflict occurrence frequency is “high”.
  • the synchronization time upper limit uses a predetermined value for conflict and occurrence frequency. For example, when the conflict occurrence frequency is “low”, “1 hour” is set, “medium” is set to “30 minutes”, and “high” is set to “5 minutes”.
  • the synchronization program 410 acquires statistical information on the frequency of occurrence of conflicts between sites in the synchronized file list reflection process.
  • the difference in FIG. 15 will be described.
  • Step S3000 The synchronization program 410 records the number of times the conflict has occurred for each top directory 416A of the directory management table 416 when performing conventional conflict detection. If there is an increase / decrease in the conflict occurrence frequency and the conflict occurrence frequency 416C is changed, the values of the conflict occurrence frequency 416C and the synchronization time upper limit 416D in the directory management table 416 are updated.
  • the NAS device 112 acquires the statistical information of the conflict occurrence frequency between the bases, so that it is possible to estimate the conflict occurrence frequency without the administrator inputting the usage.
  • the present invention can be applied to a directory where it is difficult to reduce the management cost of the administrator and to guess the usage of the file in advance.
  • a file under the top directory can be updated from a plurality of locations. It is done. Specifically, files under the top directory with a low probability of conflict are allowed to be updated from multiple locations, but files under the top directory with a high probability of conflict are allowed to be updated from multiple locations. First, only file updates from a specific site are allowed, and only other sites can refer to it. In this case, the update file of the first embodiment is divided into subtree units only for those with a low possibility of conflict occurrence.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 本発明では、データセンタ経由の拠点間ファイルシステム共有において拠点間の効率的な同期処理制御方式を提供するため、更新ファイルの拠点間のコンフリクト発生頻度と、拠点-データセンタ間のスループットに応じて、同期処理対象ファイル群を適切なサイズのサブツリーに分割する。そして、分割したサブツリーをコンフリクト発生頻度の高いものから同期する。

Description

情報処理システム及びそのデータ同期制御方式
 本発明は、複数の拠点で稼働するファイルサーバ間のデータ同期処理の効率化に関する。
 近年、企業内における情報の電子化が進み、地理的に分散する拠点間で、お互いが有する大量のファイルをできるだけ早く共有することが、ITシステムの課題となっている。課題解決の一方法として、拠点のファイルサーバが、WAN(Wide Area Network)で接続されたデータセンタを介し、同一のファイルシステムを共有するデータセンタ経由の拠点間ファイルシステム共有がある。
 例えば、特許文献1はデータセンタのCAS(Content-Addressable Storage)デバイスを経由し、ある拠点のNAS(Network Attached Storage)のファイルシステムを、他の拠点のNASからリードオンリーで参照可能とするシステムを開示している。本システムでは、ファイルシステムを公開する拠点が、更新内容を定期的(例えば一日に一回)にデータセンタに同期する同期処理を行う。他の拠点は、データセンタの更新内容を定期的に自サイトに反映することで、拠点間のファイル共有を実現する。
 データセンタ経由の拠点間ファイルシステム共有で、複数拠点に更新アクセスを許可した場合、拠点間で同一ファイルに対し異なる内容の更新が衝突(コンフリクト)する恐れがある。コンフリクトが発生した場合、更新内容を比較し、どちらか一方を最新バージョンとして残すかを判断するコンフリクト解消処理が必要となる。例えば特許文献2では、ファイルシステムのデータ同期時にコンフリクト解消を行う手法が開示されている。
 また、複数拠点からの更新処理の排他を実現するための方法として、特許文献3に、ファイルシステムの名前空間をサブツリー単位で排他する仕組みが開示されている。ここでいう名前空間とは、ファイルシステム内のファイルを管理するための管理構造で、一般にディレクトリをノード、ファイルをリーフとした木構造となる。また、サブツリーとはファイルシステムの木構造の一部となる。
米国2012/0259813号公報 米国特許7、085、779号公報 米国特許5、319、780号公報
 特許文献1記載のシステムでは、複数拠点に対し同一ファイルシステムへの更新アクセスを許可した場合、コンフリクトにより拠点間で整合性を保つことができないという問題がある。そのため、拠点とデータセンタの同期処理時に、特許文献2の同期処理時のコンフリクト解消処理が必要となる。
 特許文献2のコンフリクト解消処理はファイルシステム単位で処理を行うため、同期処理中は他の拠点によるデータセンタへの更新を排他する必要がある。ある拠点の同期処理中は他の拠点が同期処理を行えず、拠点が増えた場合に同期処理の遅延時間が大きくなるという問題がある。これは、同期処理中に他の拠点がデータセンタのデータを更新した場合、コンフリクト解消処理の結果の妥当性が保証できないためである。
 特許文献3を特許文献1、2と組み合わせることで、ファイルシステムの同期範囲をファイル単位やディレクトリ単位に細粒度化することができる。しかしながら、WAN経由の排他処理は通信遅延が大きい点が問題となる。排他範囲を細粒度化した場合は同期処理の遅延時間の問題は解決できるが、排他処理回数が増え同期処理のスループットが低下してしまう。逆に、排他範囲を大きくした場合、排他処理回数は減るものの、同期処理の遅延時間の問題は解決することができない。
 本発明はこのような状況に鑑みてなされたものであり、ファイルシステムの同期処理を適切なサイズのサブツリーに分割して実施する。同期処理時のデータセンタ更新処理の排他範囲を、分割したサブツリーとすることで、複数拠点の同期処理の並列処理を可能とし、同期処理の遅延を抑止する。
 拠点間のコンフリクト発生頻度に応じて、一回の同期処理時間の上限値を設定する。同期処理時には、同期対象のファイルのサイズ、拠点・データセンタ間のスループット、および同期処理時間の上限値に基づき、同期処理対象のファイルシステムをサブツリーに分割する。また、分割したサブツリーはコンフリクト発生頻度の高いものから同期する。すなわち、他の拠点でアクセスする可能性が高い、高コンフリクト発生頻度のファイルを小さな排他範囲とし、優先的に同期することで、これらのファイルの同期遅延時間を短縮する。一方、低コンフリクト発生頻度のファイルは、他の拠点でアクセスされる可能性が低いため、一度にたくさんのファイルを同期することで高いスループットを実現する。例えば、グループ共有ファイルなどのコンフリクトが多いファイルは、一回の同期処理対象のファイルを少なくすることで、同期処理の遅延時間を小さくし、個人作業ファイル、アーカイブなどのコンフリクトの少ないファイルは一回の同期処理対象ファイルを増やすことで高スループットとする。
 本発明により、拠点数を増やした場合でも、同期処理のスループット低下を抑えつつ、遅延時間増加の影響を抑えることができ、より多くの拠点がサポート可能となる。
本発明による情報処理システムの物理的構成例を示す図である。 本発明による情報処理システムの論理的構成例を示す図である。 NASデバイスのハードウェア及びソフトウェア構成を示す図である。 CASデバイスのハードウェア及びソフトウェア構成を示す図である。 自拠点更新ファイルリストの構成例を示す図である。 他拠点更新ファイルリストの構成例を示す図である。 分割同期ファイルリストの構成例を示す図である。 ディレクトリ管理テーブルの構成例を示す図である。 同期済みファイルリストの構成例を示す図である。 ロックリストの構成例を示す図である。 本発明によるファイルリード・ライト処理を説明するためのフローチャートである。 本発明による同期処理を説明するためのフローチャートである。 本発明による同期分割処理を説明するためのフローチャートである。 本発明によるサブツリー単位同期処理を説明するためのフローチャートである。 本発明による同期済みファイルリスト反映処理を説明するためのフローチャートである。 公開ディレクトリ設定インタフェースの構成例を示す図である。
 本発明は、情報処理システムにおけるストレージシステムでデータを管理するための技術、より具体的には、NASに保存されたデータをCASに転送し、NAS間でデータを同期するための技術に関するものである。
 以下、添付図面を参照して本発明の実施形態について説明する。
 なお、本明細書の図では、テーブルまたはリストを例にして本発明で用いられる情報について説明しているが、テーブル構造またはリスト構造で提供される情報に限られるものではなく、データ構造に依存しない情報であっても良い。
 また、本発明の実施形態では、NASとCASの通信ネットワークはWANの採用に限定されず、LAN(Local Area Network)等の通信ネットワークを採用することも可能である。本発明の態様は、NFS(Network File System)プロトコルの採用に限定されず、他のCIFS(Common Internet File System)、HTTP(Hypertext Transfer Protocol)等を含むファイル共有プロトコルを採用することも可能である。
 本実施例では拠点側のストレージ装置としてNASを使用しているが、これは例示に過ぎない。拠点側のストレージ装置として、CASデバイス、HDFS(Hadoop Distributed File System)などの分散ファイルシステム、Object based storageを使用することも可能である。また、データセンタのストレージ装置としてCASデバイスを使用しているが、これは例示に過ぎない。CASデバイスの他にも、例えばNASデバイスや分散ファイルシステム、Object based storageを使用することが可能である。
 以後の説明では「プログラム」を主語として各処理の説明を行うことがあるが、プログラムはプロセッサによって実行されることで、定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
(1)第1の実施形態
 <システムの物理的構成>
 図1は、本発明の実施形態による情報処理システムの物理的構成の一例を示すブロック図である。なお、図1においては、拠点A及びBのみが示されているが、より多くの拠点がシステムに含まれていても良く、各拠点の構成は同様とすることが可能である。
 情報処理システム10は、各拠点に配置された1つまたは複数のサブ計算機システム100及び110と、CASデバイス121で構成されるデータセンタシステム120と、を有し、サブ計算機システム100及び110のそれぞれとデータセンタシステム120がネットワーク130及び140を介して接続されている。
 サブ計算機システム100及び110は、クライアント101及び111と、NASデバイス102及び112を有し、これらはネットワーク105及び115で接続されている。クライアント101及び111は、NASデバイス102及び112が提供するファイル共有サービスを利用する一または複数の計算機である。クライアント101及び111は、NFSやCIFSなどのファイル共有プロトコルを利用して、ネットワーク105及び115を介して、NASデバイス102及び112が提供するファイル共有サービスを利用する。
 また、管理者はクライアント101及び111からNASデバイス102及び112が提供する管理インタフェースにアクセスし、NASデバイス102及び112の管理を行う。これらの管理として、例えば、ファイルサーバの運用開始、ファイルサーバの停止、ファイルシステム作成・公開、クライアント101及び111のアカウントの管理などがある。以後、複数のNASデバイス102を総称して単にNASデバイス102とする場合もある。
 NASデバイス102及び112は、NASコントローラ103及び113、記憶装置104及び114を有す。NASコントローラ103及び113はクライアント101及び111にファイル共有サービスを提供し、また、CASデバイス121との連携機能を有す。NASコントローラ103及び113は、クライアント101及び111が作成する各種ファイルやファイルシステム構成情報を記憶装置104及び114に格納する。
 記憶装置104及び114は、NASコントローラ103及び113にボリュームを提供し、NASコントローラ103及び113が各種ファイルやファイルシステム構成情報を格納する場所である。なお、ここでいうボリュームとは、物理記憶領域に対応づけられた論理的な記憶領域のことである。また、ファイルとはデータの管理単位であり、ファイルシステムとはボリューム内にファイルを管理するための管理情報である。以後、ファイルシステムが管理するボリューム内の論理的な記憶領域を、単にファイルシステムとする場合もある。
 データセンタシステム120は、CASデバイス121と管理端末124とを有し、これらはネットワーク125で接続されている。CASデバイス121は、NASデバイス102及び112のアーカイブ及びバックアップ先のストレージデバイスである。管理端末124は、情報処理システム10を管理する管理者が使用する計算機である。
 管理者は、管理端末124からネットワーク125を通してCASデバイス121の管理を行う。これらの管理として、例えば、NASデバイス102及び112に対して割り当てるファイルシステムの作成がある。なお、管理端末124は入出力装置を有する。入出力装置の例としては、ディスプレイ、プリンタ、キーボード、ポインタデバイスが考えられるが、これ以外の装置(例えば、スピーカやマイク等)であってもよい。また、入出力装置の代替として、シリアルインタフェースを入出力装置とし、インタフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続する形態であってもよい。この場合、表示用情報を表示用計算機に送信したり、入力用情報を表示計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力装置での入力及び表示を代替してもよい。
 ネットワーク105は拠点A100の拠点内LAN、ネットワーク115は拠点B110の拠点内LAN、ネットワーク125はデータセンタシステム120のデータセンタ内LANであり、ネットワーク130はWANで拠点A100とデータセンタシステム120間をネットワーク接続し、ネットワーク140はWANで拠点B110とデータセンタシステム120間をネットワーク接続する。ネットワークの種類は上記ネットワークに限定されず、種々のネットワークを利用可能である。
 <システムの論理的構成>
 図2は、本発明の実施形態による情報処理システムの論理的構成の一例を示すブロック図である。
 情報処理システム10において、拠点A100のクライアント101が読み書きするデータは、ファイルとしてNASデバイス102が作成するファイルシステムFS_A200に格納される。拠点B110も同様に、クライアント111が読み書きするデータは、ファイルとしてNASデバイス112が作成するファイルシステムFS_A’210に格納される。これらのファイルシステムでは、特定のディレクトリがクライアント101、111へ公開される。なお、ディレクトリとは複数のファイルを階層管理するための管理構造で、ファイルシステムが管理する。管理者は、クライアント101及び111にディレクトリを公開する際にディレクトリの用途を指定する。例えば、図中のuserディレクトリは個人作業ファイルの保存用のディレクトリ、groupディレクトリはグループ共有用途で用いられるディレクトリとなる。
 ファイルシステムFS_A200及びファイルシステムFS_A’210に格納されたファイルは、ある契機(所定又は任意のタイミング:例えば、夜間のバッチ処理)でデータセンタシステム120に同期される。CASデバイス121が作成するファイルシステムFS_A’’220は、拠点AのファイルシステムFS_A200、拠点BのファイルシステムFS_A’210と関連付けられたファイルシステムである。
 ファイルシステムFS_A200と、ファイルシステムFS_A’210は定期的にCASデバイスのフィルシステムFS_A’’220と同期処理を行うことで、相互に更新内容を反映する。この際、自サイトの更新内容が他サイトの更新内容とコンフリクトし、かつ他サイトの更新内容を優先する場合には、該当ファイルをコンフリクトファイル退避ディレクトリ(図中のconflictディレクトリ)に退避する。これらの同期処理の詳細は、図12の説明にて詳述する。
 <NASデバイスの内部構成>
 図3は、NASデバイス102の内部構成例を示すブロック図である。なお、拠点B110のNASデバイス112も同様の構成となる。NASデバイス102は、NASコントローラ103と記憶装置104を有する。
 NASコントローラ103は、メモリ401に格納されたプログラムを実行するCPU402、ネットワーク105を通してクライアント101との通信に使用するネットワークインタフェース403、ネットワーク130を通してデータセンタシステム120との通信に使用するネットワークインタフェース404、記憶装置104との接続に使用するストレージインタフェース405、プログラムやデータを格納するメモリ401を搭載し、それらは内部的な通信路(例えば、バス)によって接続されている。
 メモリ401は、ファイル共有サーバプログラム406と、ファイル共有クライアントプログラム407と、ファイルシステムプログラム408と、オペレーティングシステム409と、同期プログラム410と、同期ファイル分割プログラム411と、管理画面表示プログラム412と、自拠点更新ファイルリスト413と、他拠点更新ファイルリスト414と、分割同期ファイルリスト415と、ディレクトリ管理テーブル416を格納している。なお、メモリに格納されている各プログラム406乃至412や各ファイルリスト、テーブル413乃至416は、記憶装置104に格納され、CPU402によってメモリ401に読み出されて実行される態様でもよい。
 ファイル共有サーバプログラム406は、クライアント101がNASデバイス102上のファイルにファイル操作を行う手段を提供するプログラムである。ファイル共有クライアントプログラム407は、NASデバイス102がCASデバイス121上のファイルにファイル操作を行う手段を提供するプログラムであり、ファイル共有クライアントプログラム407により、各拠点のNASデバイスはCASデバイス121上の自拠点及び他拠点のファイルに対して所定のファイル操作を実行することができるようになる。
 ファイルシステムプログラム408は、ファイルシステムFS_A200を制御する。オペレーティングシステム409は、入出力制御機能、ディスク、メモリ等の記憶装置への読み書き制御機能などを有し、他のプログラムにこれらの機能を提供する。
 同期プログラム410は、NASデバイス102とCASデバイス121間のファイルの同期処理を実行する。同期ファイル分割プログラム411は、同期プログラム410から呼び出され、同期対象となるファイル群を複数のサブツリーに分割する。管理画面表示プログラム412は同期処理の管理画面を制御する。管理者はクライアント101を介して、管理画面表示プログラム412の提供する管理画面にアクセス可能である。
 自拠点更新リスト413は、NASデバイス102が自拠点のファイル更新処理を管理するためのリストである。また、他拠点更新リスト414は、NASデバイス102が他拠点でのファイルの更新情報を管理するためのリストである。分割同期ファイルリスト415は、NASデバイス102が自拠点の同期処理対象のファイル群をサブツリー単位に分割し、管理するためのリストである。
 各ファイルリストの詳細は、図5から図7の説明にて後述する。ディレクトリ管理テーブル416は、クライアント101に公開したディレクトリごとに、格納ファイルの用途とコンフリクト発生頻度を管理するためのテーブルである。ディレクトリ管理テーブル416の詳細は、図8の説明にて後述する。
 記憶装置104は、NASコントローラ103との接続に使用するストレージインタフェース423、NASコントローラ103からの命令を実行するCPU422、プログラムやデータを格納するメモリ421、一つまたは複数のディスク424を搭載し、それらは内部的な通信路(例えば、バス)によって接続されている。記憶装置104はFC-SAN(Fibre Channel Storage Area Network)等のブロック形式のストレージ機能をNASコントローラ103に提供する。
 <CASデバイスの内部構成>
 図4は、CASデバイス121の内部構成例を示すブロック図である。CASデバイス121は、CASコントローラ122と記憶装置123を有する。
 CASコントローラ122は、メモリ501に格納されたプログラムを実行するCPU502、ネットワーク130及び140を通してNASデバイス102及び112との通信に使用するネットワークインタフェース503、ネットワーク125を通し管理端末124との通信に使用するネットワークインタフェース504、記憶装置123との接続に使用するストレージインタフェース505、プログラムやデータを格納するメモリ501を搭載し、それらは内部的な通信路(例えば、バス)によって接続されている。
 メモリ501は、ファイル共有サーバプログラム506と、ファイルシステムプログラム507と、オペレーティングシステム508と、同期済みファイルリスト509と、ロックリスト510を格納している。なお、各プログラム506乃至508及びリスト類509乃至510は、記憶装置123に格納され、CPU502によってメモリ501に読み出されて実行される態様でもよい。
 ファイル共有サーバプログラム506は、NASデバイス102及び112がCASデバイス121上のファイルにファイル操作を行う手段を提供するプログラムである。ファイルシステムプログラム507は、ファイルシステムFS_A’’220を制御する。オペレーティングシステム508は、入出力制御機能、ディスク、メモリ等の記憶装置への読み書き制御機能を、他のプログラムに提供する。同期済みファイルリスト509は、NASデバイス102およびNASデバイス112が同期処理により行ったファイルの更新処理を管理するリストである。ロックリスト510はNASデバイス102およびNASデバイス112によりロック獲得された、ファイルシステムFS_A’’220のサブツリーを管理するためのリストである。
 記憶装置123は、CASコントローラ122との接続に使用するストレージインタフェース523、CASコントローラ122からの命令を実行するCPU522、プログラムやデータを格納するメモリ521、1または複数のディクス524を搭載しそれらは内部的な通信路(例えば、バス)によって接続されている。記憶装置123はFC-SAN(Fibre Channel Storage Area Network)等のブロック形式のストレージ機能をCASコントローラ122に提供する。
 <自拠点更新ファイルリスト>
 図5は、NASデバイス102の自拠点更新ファイルリスト413の構成例を示す図である。NASデバイス112も同様の自拠点更新ファイルリスト413を管理する。
 自拠点更新ファイルリスト413は、ファイル名413A、更新日時413B、更新対象413C、更新内容413D、を構成項目として有している。
 自拠点更新ファイルリスト413の各エントリは、NASデバイス102で発生したファイル、またはディレクトリに対する更新処理に対応する。
 ファイル名413Aは、更新対象のファイル・ディレクトリを識別する識別情報で、ファイルまたはディレクトリのパスを含む。なお、ここでいうパスとは、ファイルシステム内でファイルまたはディレクトリの所在を示すための文字列である。パスには、ファイルシステムのルートから順に、該当ファイル・ディレクトリに至るまでの全てのディレクトリが記載される。
 更新日時413Bは、ファイル、またはディレクトリが更新された日時を示す情報である。更新対象413Cは、更新対象を示す情報で、ファイル、またはディレクトリのいずれか一つが含まれる。更新内容413Dは、更新ファイルに対して行われた更新内容となり、書き込み、削除、リネーム元、リネーム先のうちの一つが指定される。なお、ここでいう書き込みには、ディレクトリ内のファイルを増減する操作も含む。
 自拠点更新ファイルリスト413は、NASデバイス102が同期処理を行うタイミングで新規に作成される。つまり、自拠点更新ファイルリスト413は、最後に行った同期処理以降に発生した更新処理の一覧となる。
 このような自拠点更新ファイルリスト413により、NASデバイス102は前回の同期処理以降に自拠点で発生した更新処理を管理することが可能となる。その結果、NASデバイス102は自拠点で発生した更新処理をCASデバイス121、ひいては他拠点に通知することが可能となる。
 <他拠点更新ファイルリスト>
 図6は、NASデバイス102の他拠点更新ファイルリスト414の構成例を示す図である。NASデバイス112も同様の他拠点更新ファイルリスト414を管理する。
 他拠点更新ファイルリスト414の各エントリは、他拠点で更新されたファイルに対応する。他拠点更新ファイルリスト414は、拠点414A、同期番号414B、ファイル名414C、更新日時414D、更新対象414Eを構成項目として有している。
 拠点414Aは、更新が発生した拠点名を示す情報である。同期番号414Bは、NASデバイス102が実施した同期処理を全NASデバイス102に対し時系列にまたがり一意に示すための識別子である。NASデバイス102は、同期処理時に、最も新しい同期番号に対し1加算したものを同期番号414Bとして使用する。ファイル名414Cは、更新されたファイルのパスを示す情報である。更新日時414Dは、他拠点で更新が発生した日時を示す情報である。更新対象414Eは、更新対象を示す情報で、ファイル、またはディレクトリのいずれか一つが含まれる。
 NASデバイス102は同期処理時にCASデバイス121の同期済みファイルリスト509から他拠点の更新内容を取得し、他拠点で更新されたファイルを他拠点更新ファイルリスト414に追記する。NASデバイス102は、他拠点更新ファイルリスト414に記載されたファイルへのアクセス時に、CASデバイス121から最新ファイルを取得する処理を行う。
 他拠点更新ファイルリスト414により、他の拠点で発生した更新ファイルを、クライアント101からのアクセス時に必要に応じて取得することが可能となる。その結果、NASデバイス102は、CASデバイス121から全ての更新ファイルを読み込むことなく、クライアント101に対し他拠点の更新ファイルを即座にアクセス可能とすることができる。なお、他拠点更新ファイルリスト414を用いた他拠点の更新ファイルの反映処理は例示である。例えば、NASデバイス102が同期処理の度に、更新ファイルをCASデバイス121に転送する同期方式においても、本発明は適用可能である。
 <分割同期ファイルリスト>
 図7は、NASデバイス102の分割同期ファイルリスト415の構成例を示す図である。NASデバイス112も同様の分割同期ファイルリスト415を管理する。
 分割同期ファイルリスト415の各エントリは、前回の同期処理から新たに実施する同期処理の間に自拠点で発生した更新処理に対応する。分割同期ファイルリスト415は、サブツリー番号415A、排他範囲415B、ファイル名415C、更新日時415D、更新対象415E、更新内容415Fを構成項目として有している。
 サブツリー番号415Aは、分割同期ファイルリスト415内でサブツリーを一意に識別するための識別番号を示す。排他範囲415Bは、該当更新処理が発生したサブツリーの同期時に必要な排他範囲を示す。排他範囲415Bには、一つ以上の排他対象となるサブツリーのルートディレクトリのパスが含まれる。ファイル名415Cは、該当更新処理が処理対象とするファイル・ディレクトリのパスを示す情報である。更新日時415Dは、該当更新処理が行われた日時を示す。更新対象415Eは、更新された内容がファイルか、ディレクトリかを示す情報である。更新内容415Fは、更新ファイルに対して行われた更新内容となり、書き込み、削除、リネーム元、リネーム先のうちの一つが指定される。
 NASデバイス102は同期処理時に自拠点更新ファイルリスト413の複製(以下自拠点更新ファイルリスト複製)を作成する。その後、NASデバイス102は、自拠点更新ファイルリスト複製内に含まれる更新処理をサブツリー単位に分割し、分割同期ファイルリスト415を作成する。
 このように、分割同期ファイルリスト415により、更新処理をサブツリーに分割し、同期処理をサブツリー単位に実施することが可能となる。
 <ディレクトリ管理テーブル>
 図8は、NASデバイス102のディレクトリ管理テーブル416の構成例を示す図である。NASデバイス112も同様のディレクトリ管理テーブル416を管理する。
 ディレクトリ管理テーブル416の各エントリは、管理者により用途が設定されたサブツリーに対応する。ディレクトリ管理テーブル416は、トップディレクトリ416A、用途416B、コンフリクト頻度416C、同期時間上限416D、平均スループット416Eを構成項目として有している。
 トップディレクトリ416Aは、同期処理の制御対象となるサブツリーのトップディレクトリのパスを示す情報である。なお、トップディレクトリ416Aには、公開ディレクトリのパス、管理者に設定された任意のディレクトリ・ファイルのパスを設定してよい。なお、トップディレクトリ416Aのパス中に“*(アスタリスク)”が含まれている場合、該当エントリの内容は“*”以外のパスが一致するパスを有する全てのディレクトリに対して適用される。
 用途416Bは、トップディレクトリ416A以下のファイルの用途を示す情報であり、個人、グループ共有、アーカイブ、バックアップのうちどれか一つが指定される。用途416Bは、ディレクトリ公開時に、管理者が後述する公開ディレクトリ設定インタフェースを介して指定する。
 コンフリクト頻度416Cは、同期処理時のコンフリクト発生頻度を示す情報である。コンフリクト発生頻度416Cは、用途416Bに対し、事前に定められた規定値が設定される。例えば、個人用途の場合、コンフリクト発生頻度は“低”、グループ共有の場合は“高”となる。
 同期時間上限416Dは、該当トップディレクトリに対する同期処理の一回当たりの処理時間の上限となる。NASデバイス102は後述の同期分割処理において、同期時間上限416Dを満たすように同期処理対象とするサブツリーのサイズを決定する。同期時間上限416Dも、コンフリクト頻度416C同様に、用途416Bに対して事前に定められた規定値が設定される。平均スループット416Eは、該当ディレクトリの同期処理のスループットを示す情報である。NASデバイス102は、同期処理において、該当ディレクトリに対する同期処理が発生した場合、平均スループットを再算出し算出結果で平均スループット416Eを書き換える。なお、平均スループットの再算出は、長期的な傾向を反映させるため過去から累積した統計情報で行ってもよいし、直近の傾向を把握するため、例えば、過去5回の統計情報で行ってもよい。また、コンフリクト発生頻度416Cも、統計情報に基づいて設定を変更してもよいし、平均値を設定してもよい。
 ディレクトリ管理テーブルにより、ディレクトリごとの同期処理の要件を管理し、同期処理時にファイルの用途に応じた適切なサイズのサブツリーを構築することが可能となる。なお、本実施例では、トップディレクトリ416Aに対して用途416Bやコンフリクト発生頻度416Cや同期時間上限416Dを設定しているが、これに限られない。例えば、トップディレクトリ以外のディレクトリ単位やファイル単位に用途416Bやコンフリクト発生頻度416Cや同期時間上限416Dが設定されても良い。
 また、上記で述べた用途416Bの指定内容は例示に過ぎず、他の用途を指定することも可能である。
 <同期済みファイルリスト>
 図9は、CASデバイス121の同期済みファイルリスト509の構成例を示す図である。
 同期済みファイルリスト509の各エントリは、NASデバイス102の同期処理によりCASデバイス121に対して実施された更新処理に対応する。これらの更新処理はCASデバイス121に実施された順番で記録される。
 同期済みファイルリスト509は、拠点509A、同期番号509B、ファイル名509C、更新日時509D、更新対象509E、更新内容509Fを構成項目として有している。
 拠点509Aは、更新処理が行われた拠点を示す情報である。同期番号509Bは、同期番号414Bと同様に、全NASデバイス102、時間にまたがり一意に同期処理を識別するための識別子を示す情報である。ファイル名509Cは、更新対象となったファイル・ディレクトリのパスを示す。なお、ファイル名509Cに格納されるパスは、更新処理実施時のCASデバイス121のFS_A’’220のパスが格納される。更新日時509Dは、更新処理がNASデバイス102で発生した日時を示す情報である。更新対象509Eは、更新された内容がファイルか、ディレクトリかを示す情報である。更新内容509Fは、更新処理の内容となり、書き込み、削除、リネーム元、リネーム先のうち一つが指定される。
 NASデバイス102は、同期処理時に自拠点で発生した更新処理に対応する更新処理を、CASデバイス121に対して実施し、その内容を同期済みファイルリスト509に追記する。つまり、同期済みファイルリスト509には、NASデバイス102で発生した更新処理が時系列で記録される。
 また、これらの更新処理は、NASデバイス102の更新処理そのものでなく、CASデバイス121のFS_A’’220に対する更新処理として記録される。例えば、NASデバイス102は、更新対象となったファイルが、他の拠点のリネーム処理により異なるパスにてCASデバイス121のFS_A’’220で格納されている場合、リネーム後のパスに対する更新処理を同期済みファイルリスト509に記録する。
 このように、同期済みファイルリスト509により、NASデバイス102は自拠点で発生した更新処理を、CASデバイス121に記録し、他の拠点のNASデバイス102に通知することが可能となる。
 <ロックリスト>
 図10は、CASデバイス121のロックリスト510の構成例を示す図である。
 ロックリスト510の各エントリは同期処理時に排他対象となるCASデバイス121のFS_A’’220内のサブツリーに対応する。ロックリスト510にサブツリーが記載されている場合、NASデバイス102は該当するサブツリーを含むサブツリーに対して、同期処理を実施することができない。
 ロックリスト510は、サブツリールート510A、ロックオーナー510B、獲得日時510C、保持期間510Dを構成項目として有している。
 サブツリールート510Aは、排他対象となるサブツリーのトップディレクトリを示す情報である。なお、サブツリーではなくファイル単体を排他対象とする場合には、該当ファイルのパスを示す情報となる。ロックオーナー510Bは、ロックを獲得したNASデバイス102を示す情報で、システム内でNASデバイス102を一意に示すための識別子(ホスト名など)を示す。獲得日時510Cは、ロックが獲得された日時を示す情報である。保持期間510Dは、ロック獲得後のロックの有効期間を示す情報ある。 
 NASデバイス102は同期処理を行う際に、ロックリスト510にエントリを追記(ロック)し、同期処理後に削除(アンロック)する。NASデバイス102はサブツリーの同期時に、もし該当サブツリー内に他のNASデバイスがロックを獲得したサブツリーがある場合、同期処理を実施しない。また、ロックを獲得したNASデバイス102が保持期間510Dを過ぎてもロック期間の延長(獲得日時510Cの上書き)または、アンロックしない場合、ロックは無効となる。これは、ロックを獲得したNASデバイス102に障害が発生し保持期間内に復旧できなかった場合に、他のNASデバイス102が永遠に同期処理を実施できなくなることを防ぐためである。
 ロックリスト510により、NASデバイス102間の同期処理のサブツリー単位の排他が可能となる。
 <ファイルリード/ライト処理>
 図11は、本発明による、NASデバイス102のファイルリード・ライト処理を説明するためのフローチャートである。NASデバイス102は、クライアント101からファイルリード・ライト要求を受信した際に、図11に示すリード・ライト処理を実施する。以下、図11に示す処理をステップ番号に沿って説明する。
 ステップS1000:ファイルシステムプログラム408は、ファイル共有サーバプログラム406を経由してクライアント101からのファイルリード・ライト要求を受理する。この際、リード要求には、リード対象のファイル名と、リード対象データのファイル内の先頭位置と長さが含まれる。一方、ライト要求には、ライト対象のファイル名とライト対象データのファイル内の先頭位置と、ライトデータが含まれる。
 ステップS1001:ファイルシステムプログラム408は、他拠点更新ファイルリスト414を検索し、他拠点におけるリード・ライト対象ファイルの更新有無を判定する。ファイルシステムプログラム408は他拠点更新ファイルリスト414にリード・ライト対象となったファイルと同じファイル名を持つエントリがないかを調べる。本処理は、自拠点のリード・ライト対象ファイルが他拠点にて既に更新されており、CASデバイス121から最新版を入手する必要があるかどうかを判定するために行う。
 ステップS1002:リード・ライト対象ファイルが他拠点更新ファイルリスト414にない場合、ファイルシステムプログラム408はステップS1005の処理に移る。この場合、自拠点にあるファイルが最新であるため、自拠点のFS_A200のファイルに対して通常のリード・ライトが実施される。リード・ライト対象ファイルが他拠点更新ファイルリスト414にある場合、ファイルシステムプログラム408はステップS1003の処理に移る。この場合、自拠点のFS_A200内のファイルが最新でないため、CASデバイス121から最新版ファイルを取得した上で、リード・ライト処理を行う。
 ステップS1003:ファイル共有クライアントプログラム407は、CASデバイス121からリード・ライト対象ファイルの最新版を読み込み、FS_A200にデータを格納する。なお、CASデバイス121で他拠点更新ファイルリスト414のファイル名414Cに該当するファイルがない場合については、クライアント101に対しエラーを応答し、リード・ライト処理を終了する。このようなケースは、リード・ライト対象ファイルが他拠点で削除、またはリネームされている場合に発生する。この場合、ファイルシステムプログラム408は、リード・ライト対象ファイルが不整合の状態になっていると判断し、次回の同期処理までの間、該当ファイルへのアクセスを禁止する。
 ステップS1004:ファイルシステムプログラム408は、他拠点更新ファイルリスト414からステップS1003で取得したファイルのエントリを削除する。これは、ステップS1003により、自拠点のFS_A200内の該当ファイルが最新版のファイルに置き換えられためである。本処理により、次回以降の該当ファイルのリード・ライト処理において、CASアクセスが不要となる。
 ステップS1005:ファイルシステムプログラム408は、クライアントからの要求がファイルリード要求か、ファイルライト要求かを判断する。ファイルシステムプログラム408は、ファイルリード要求の場合ステップS1008の処理に移り、ファイルライト要求の場合ステップS1006の処理に移る。
 ステップS1006:ファイルシステムプログラム408は、クライアントのライト要求に従いFS_A200の該当ファイルの書き込み処理を行う。
 ステップS1007:ファイルシステムプログラム408は、ステップS1006で行った更新処理を自拠点更新ファイルリスト413に追加し、ステップS1009の処理に移る。
 ステップS1008:ファイルシステムプログラム408は、リード対象ファイルのデータを読み取る。
 ステップS1009:ファイルシステムプログラム408は、ファイルリード・ライト処理の応答を、ファイル共有サーバプログラム406を経由してクライアント101に返す。
 以上で述べた処理にて、NASデバイス102は、リード・ライト処理時に、他拠点で発生した更新処理を反映し、かつ自拠点で発生した更新処理を自拠点更新ファイルリスト413に反映することが可能となる。また、上記ファイルに対するリード・ライト処理は、ディレクトリに対しても同様に適用される。
 <ファイル削除・リネーム処理>
 NASデバイス102はクライアントからファイル削除、リネーム要求を受信した場合、自拠点のFS_A200の該当ファイルの削除、リネームを実施する。その後、自拠点更新ファイルリスト413に更新処理の情報を追記する。また、リネーム処理時には、他拠点ファイルリスト414のエントリのうち、リネーム元となったファイル・ディレクトリまたは、リネーム元となったディレクトリ内のファイル・ディレクトリが含まれる場合には、該当エントリをリネーム先のパスに変換する処理を行う。この場合、他拠点更新ファイルリスト414のファイル名414Cに含まれるリネーム前のパスを、リネーム後のパス名に置き換えることになる。例えば/home/userA/File_Aを/home/userA/File_Bに移すリネーム処理があり、他拠点更新ファイルリスト414に/home/userA/File_Aが含まれている場合、該当エントリのファイル名414Cを/home/userA/File_Bに書き換える。
 また、削除処理時には、他拠点ファイルリスト414中に削除対象ファイルまたはディレクトリが含まれている場合には、該当するファイル・ディレクトリを削除する。
 以上の処理を行うことにより、他拠点更新ファイルリスト414に含まれるエントリのファイル名414と、FS_A200内のファイル名を一致させることができる。また、上記ファイルに対するリネーム・削除処理は、ディレクトリに対しても同様に適用される。
 <同期処理>
 図12は、NASデバイス102の同期処理を説明するためのフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。
 ステップS2000:NASデバイス102の同期プログラム410は、定期的に起動し前回の同期処理以降に発生した自拠点の更新処理を、CASデバイス121に反映する同期処理を開始する。なお、同期処理の実施間隔は管理者が管理画面表示プログラム412を介し、設定する。同期プログラム410は、まず自拠点更新ファイルリスト複製を作成し、自拠点更新ファイル413の全エントリを削除する。本処理により同期対象となるファイル群を確定することができる。
 ステップS2100:同期プログラム410は、同期ファイル分割プログラム411を呼び出し、複製した自拠点更新ファイルリスト413のエントリをディレクトリ管理テーブル416(図8)に従いサブツリー単位に分割し、分割同期ファイルリスト415を作成する。本処理により、同期処理対象のファイル群を、同期時間上限416D以内に同期完了可能なサイズのサブツリー単位に分割することができる。本処理の詳細は図13を用いて後述する。
 ステップS2200:同期プログラム410は、ステップS2100で作成したサブツリーごとに、CASデバイス121への同期処理を行う。本処理では、NASデバイス102は、CASデバイス121のファイルシステムFS_A’’220をサブツリー単位で排他し、排他したサブツリーに対して同期処理を行う。また、本処理ではサブツリーのコンフリクト発生頻度に応じた同期処理の順序制御を行う。本ステップの詳細は図14を用いて後述する。
 以上の処理により、NASデバイス102は前回の同期処理以降で発生したFS_A200に対する更新処理を、サブツリー単位でCASデバイス121のFS_A’’220に反映することができる。
 <同期分割処理の詳細>
 図13は、ステップS2100で述べた同期分割処理の詳細を説明するためのフローチャートである。以下、図13に示す処理をステップ番号に沿って説明する。
 ステップS2101:同期ファイル分割プログラム411は、ステップS2000で作成した自拠点更新ファイルリスト複製を読み取り、前回の同期処理以降に更新されたファイル・ディレクトリを抽出する。なお、自拠点更新ファイルリスト複製のファイル名には、更新処理が発生した時点での、FS_A200内のパスが記録されている。更新処理以降に、更新ファイル・ディレクトリ、またはその上位ディレクトリがリネームされている場合には、自拠点更新ファイルリスト複製のファイル名と実際のパスが異なることになる。そのため、同期ファイル分割プログラム411は、自拠点更新ファイルリスト複製のリネーム処理が発生する以前のエントリに対して、リネーム元ファイル・ディレクトリのパス名を、リネーム先ファイル・ディレクトリのパス名に置換する処理を行う。
 ステップS2102:同期ファイル分割プログラム411は、ステップS2101で抽出した更新ファイル・ディレクトリのリストに含まれるエントリを、サブツリーごとに連続するように並べ替える。同期ファイル分割プログラム411は、まずエントリをパスでソートし、同一ディレクトリ以下のファイルを連続して並べる。これは、同一ディレクトリ以下のファイル群は、該当ディレクトリまでの部分パスが一致するためである。
 S2116:同期ファイル分割プログラム411は、ディレクトリ管理テーブル416のトップディレクトリを調べる。もしあるトップディレクトリ内に他のトップディレクトリが含まれている場合、他のトップディレクトリ以下のエントリを該当トップディレクトリのエントリの後ろに並べ替える。
 ステップS2103:同期ファイル分割プログラム411は、サブツリーを作成するための作業領域として、メモリ上に作業リストを作成する。作業リストは構築中のサブツリーに含むファイルの参照ポインタを格納するためのリストである。
 ステップS2104:同期ファイル分割プログラム411は、ステップS2102で作成した、処理対象ファイルリストの最初のエントリ同期分割処理の対象ファイル(処理中ファイル)として選択する。この際、ディレクトリ管理テーブル416を調べ、処理中ファイルの属するトップディレクトリを調べておく。
 ステップS2105:同期ファイル分割プログラム411は、処理中ファイルを作業リストに追加する。
 ステップS2106:同期ファイル分割プログラム411は、現在の処理中ファイルが処理対象ファイルリストの最後のファイルの場合、処理中ファイルがサブツリーの最後のファイルと判断し、ステップS2110の処理に移る。そうでない場合、ステップS2107の処理に移る。
 ステップS2107:同期ファイル分割プログラム411は、処理対象ファイルリストの次のファイルが、現在の処理中ファイルと同じトップディレクトリに含まれるかどうかを調べる。なお、ここでいうトップディレクトリとはディレクトリ管理テーブル416のトップディレクトリ416Aと対応する。もし、同じトップディレクトリに含まれていない場合、処理中ファイルがサブツリーの最後のファイルと判断し、ステップS2110の処理に移る。そうでない場合はステップS2108の処理に移る。
 ステップS2108:同期ファイル分割プログラムは以下の数式1を用い、作業ファイルリストに含まれるファイルと、次の処理対象ファイルを加えた場合の同期時間の見積もりを行う。
 同期時間の見積もり = ((作業ファイルリストに含まれるファイルサイズの和)+次の処理対象ファイルのサイズ)/平均スループット ...数式1
 なお、平均スループットはディレクトリ管理テーブル416記載の平均スループット416Eの値を用いる。
 ステップS2109:同期ファイル分割プログラム411は、S2108で得た同期時間見積もりが、処理中ファイルの属するトップディレクトリの同期時間上限416Dより大きいかどうかを判定する。同期ファイル分割プログラム411は、同期時間見積もりがデータ同期時間上限416Dよりより大きい場合は、処理中ファイルがサブツリーの最後のファイルと判断し、ステップS2110の処理に移る。そうでない場合は、ステップS2115の処理に移る。
 ステップS2110:同期ファイル分割プログラム411は作業リストに含まれるファイルから、同期対象とするサブツリーを作成する。サブツリーは、ファイルシステムのツリー構造のうち、作業リストに含まれる全ファイルを含む最小の部分木とする。なお、ステップS2107にて、同一トップディレクトリ内のファイルは存在しないことが保証されるため、サブツリーは最大でもトップディレクトリとなる。
 ステップS2111:同期ファイル分割プログラム411は、S2110で作成したサブツリーを排他範囲とする。また、同期ファイル分割プログラム411は自拠点更新ファイルリスト複製を調べ、作成中のサブツリー内のファイル・ディレクトリがサブツリー外からリネームされている場合、リネーム元のパスも排他範囲とする。これは、同期処理時に、他の拠点の同期処理によりリネーム元のファイル・ディレクトリが更新されることを防ぐためである。
 ステップS2112:同期ファイル分割プログラム411は、ステップS2107で決めたサブツリーごとに分割同期ファイルリスト415を出力する。同期ファイル分割プログラム411は、サブツリーごとに同期処理内で一意のサブツリー番号を付与し、サブツリー番号415Aに出力する。またステップS2111で決めた排他範囲を排他範囲415Bに出力する。ファイル名415CにはステップS2101で調べた更新ファイルのパスを格納し、更新日時415D、更新対象415E、更新内容415Fには自拠点更新ファイルリスト413の内容を格納する。
 ステップS2113:同期ファイル分割プログラム411は、作業リストを初期化し次のサブツリーの作成に入る。
 ステップS2114:同期ファイル分割プログラム411は、同期対象のファイル群に未処理の更新ファイルがある場合には、ステップS2115の処理に移り、そうでない場合は同期分割処理を終了する。
 ステップS2115:同期ファイル分割プログラム411は、同期対象のファイル群の次の更新ファイルに対し、ステップS2105以降の処理を行う。
 以上で述べた同期分割処理を行うことで、NASデバイス102は、同期時間上限416Dを満たす範囲でできるだけ大きく、同期処理を分割することができる。
 <サブツリー単位同期処理の詳細>
 図14は、ステップS2200で述べたサブツリー単位同期処理の詳細を説明するためのフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。
 ステップS2201:同期プログラム410は、分割同期ファイルリスト415とディレクトリ管理テーブル416を調べ、各サブツリーのコンフリクト頻度416Cを調べる。なお、サブツリーの更新頻度は、サブツリーを含むトップディレクトリ416Aのコンフリクト頻度416Cと同等と判断する。
 ステップS2202:同期プログラム410は、S2201で調べたコンフリクト頻度に基づき、コンフリクト頻度の高いものからサブツリーをソートする。もし、同一コンフリクト頻度のサブツリーが複数ある場合には、サブツリー内のファイルサイズの総和が小さなものを優先する。これにより、コンフリクト発生頻度の高いファイルから他の拠点に同期することができるため、コンフリクトの発生確率を低減させることができる。
 ステップS2203:同期プログラム410は、CASデバイス121のロックリスト510を調べ、処理対象とするサブツリーの排他範囲415Bに対して、ロックが獲得可能かどうかを判断する。ロックは、ロックリスト510中の全てのサブツリールート510Aが排他範囲415Bに含まれない場合のみ、獲得可能と判断する。
 全ての排他範囲415Bに対しロックが獲得可能な場合、同期プログラム410は排他範囲415Bをサブツリールート510Aとし、自身をロックオーナー510Bとしたエントリをロックリスト510に追記する。なお、獲得日時510Cには本処理の実施日時を、保持期間510Dにはシステムに事前に設定された期間(例えば、同期時間上限416Dで指定された値)を指定する。
 なお、ロックリスト510に対する更新処理を他の拠点と排他するため、NASデバイス102は、ロックリスト510の操作開始時に、自身のみが更新権限を持った特定の名前のロックファイルをCASデバイス121上に作成する。NASデバイス102は、ロックリスト510への操作が完了し次第、ロックファイルを削除する。他の拠点はロックファイルが存在する間は、ロックリスト510の操作を行わない。
 ステップS2204:同期プログラム410は、ステップS2203でロック獲得に成功した場合、処理中のサブツリーをCASデバイス121に同期するため、ステップS2205に移る。もし、ロック獲得に失敗した場合はステップS2211に移り、次のサブツリーの処理に移る。
 ステップS2205:同期プログラム410は、CASデバイス121から同期済みファイルリスト509を読み込む。
 ステップS2206:同期プログラム410は、ステップS2205で読み取った同期済みファイルリスト509の内容を、ファイルシステムFS_A200と他拠点更新ファイルリスト414に反映する。また、同期済みファイルリスト509にリネーム・削除処理が含まれている場合、それらの内容は自拠点更新ファイルリスト413および、分割同期ファイルリスト415にも反映する。これらの同期済みファイルリスト反映処理の詳細は図15を用いて後述する。
 ステップS2207:同期プログラム410は、分割同期ファイルリスト415中の処理中サブツリーに対する更新処理をCASデバイス121に反映する同期処理を行う。同期プログラム410は、分割同期ファイルリスト415を読み取り、前回同期処理以降に行われたサブツリー内のファイル更新処理と同等の処理をCASデバイス121に対して行う。同期プログラム410は、更新内容415Fが書き込みの場合、更新対象となったファイルをCASデバイス121に格納する。また、更新内容415Fがリネーム・削除の場合、同じ処理をCASデバイス121に対して実施する。
 なお、分割同期ファイルリスト415のファイル名415Cは、更新処理発生時のFS_A200内のパス名が記録されている。そのため、ステップS2101と同様に、ファイル名415Cを同期処理時点でのFS_A200内のパスに変換する処理を行う。また、他拠点でリネーム処理が発生している場合、FS_A’’220では異なるパスにて記録されている。そのため、同期済みファイルリスト509から、前回の同期処理以降に発生したリネーム処理を調べ、ファイル名415CをFS_A’’220のパスに変換する処理もあわせて行う。更新処理は、最終的に得られたFS_A’’220のファイル・ディレクトリに対して実施する。
 ステップS2208:同期プログラム410はステップS2207で行ったCASデバイス121への更新処理をCASデバイス121上の同期済みファイルリスト509に追記する。なお、同期済みファイルリスト509への更新処理は、ステップS2203と同様の方法にて、他の拠点と排他して行う。
 また、同期プログラム410は、サブツリーの累積転送量と転送時間を統計情報として記録し、平均転送スループットを計算する。同期プログラム410は、平均転送スループットを、ディレクトリ管理テーブル416の平均スループット416Eに記録する。
 ステップS2209:同期プログラム410は、CASデバイス121のロックリスト510から、ステップS2203で追記したエントリを削除し、アンロックする。ステップS2203と同様にロックリスト510の操作は他の拠点と排他して行う。
 ステップS2210:同期プログラム410は、未処理のサブツリーがある場合には、次のサブツリーの処理のためS2211に処理を移し、そうでない場合には同期処理を終了する。
 ステップS2211:同期プログラム410は、未処理のサブツリーのうち、最もコンフリクト頻度の高いサブツリーを次のサブツリーとして選び、ステップS2203以降の処理を繰り返す。
 以上で述べたサブツリー単位同期処理を行うことで、サブツリー単位の同期処理を、コンフリクト発生頻度の高いサブツリーから順に実施することが可能となる。なお、本実施例では、サブツリーの同期処理ごとにロックの獲得、解放を行うが、これは例示に過ぎない。例えば、ロック獲得による通信量を削減するため、コンフリクト頻度の低いサブツリーに対しては、一度に複数のサブツリーのロックを獲得する制御も可能である。この場合、同期プログラム410は全てのサブツリーに対する同期処理を実施した後、これらのサブツリーのロック解放を行う。この場合異なるトップディレクトリ下のサブツリーについて、複数まとめてロックを獲得してよく、サブツリーの範囲を変動させるよりも、きめ細かにロックの対象を設定する事が出来る。この際に複数のロックを纏める範囲の判断は上記のコンフリクト頻度に加え、同期に係る時間を考慮して良い。また、この判断は例えば、S2202のサブツリーのソートの段階でして良い。
 <同期済みファイルリスト反映処理の詳細>
 図15は、CASデバイス121の同期済みファイルリスト反映処理の詳細を説明するためのフローチャートである。以下、図15に示す処理をステップ番号に沿って説明する。
 ステップS3000:同期プログラム410は、ステップS2205で読み取った同期済みファイルリスト509のうち、前回の自身が行った同期処理以降に発生したCASデバイス121に対する更新処理で、処理中のサブツリーに含まれる更新処理を調べる。その後、同期プログラム410はCASデバイス121で行われた更新処理の処理対象ファイルが、自拠点更新ファイルリスト413に含まれていないかを調べ、コンフリクトの発生有無を判断する。
 コンフリクトがある場合には、該当する更新処理をコンフリクト処理として抽出する。この際、もし自拠点の更新日時413Bが他拠点の更新日時509Dより古い場合は、その更新処理を他拠点優先コンフリクトとして処理する。そうでない場合は自拠点優先コンフリクトとして処理する。また、リネーム処理・削除処理についても同様に、自拠点優先コンフリクトか、他拠点優先コンフリクトかを判定する。なお、自拠点更新ファイルリスト413、同期済みファイルリスト509共に、リネーム処理が途中で発生している場合には、それ以降のエントリのファイル名はリネーム前のファイル名に変換した上で、同一ファイルかどうかを判断する。
 ステップS3001:同期プログラム410は、ステップS3000で見つけた他拠点優先コンフリクトの処理対象となったファイルまたはディレクトリを、専用の退避ディレクトリに複製する。なお、退避ディレクトリは、コンフリクト発生ファイル格納用のディレクトリで各ファイルシステムに一つ用意されているシステムディレクトリである。このように他拠点優先コンフリクトファイルを退避することで、ユーザの意図しないコンフリクト解消処理が発生し、ファイルが置換された場合でも、ユーザは古い(置換前の)ファイルにアクセスすることが可能である。また、同期プログラム410は、他拠点優先コンフリクトが発生した更新処理はCASデバイス121に同期不要と判断し、分割同期ファイル415から該当するエントリを削除する。
 ステップS3002:同期プログラム410は、ステップS3000で見つけた同期済みファイルリスト509中の処理対象エントリのうち、最初のエントリを次の処理対象とし、ステップS3003の処理に移る。
 ステップS3003:同期プログラム410は、処理中の更新処理が自拠点優先コンフリクトの場合、他拠点の更新処理を反映する必要がないと判断し、ステップS3007の処理に移る。そうでない場合、ステップS3004の処理に移る。
 ステップS3004:同期プログラム410は、更新内容509Fに基づき、更新処理がファイル、ディレクトリに対する書き込みか、削除やリネーム処理かを判断する。もし更新処理が書き込みの場合、ステップS3005の処理に移り、そうでない場合ステップS3006の処理に移る。
 ステップS3005:同期プログラム410は、他拠点更新ファイルリスト414に現在処理している更新処理の更新対象ファイル509Cを追加する。本処理により、ファイルシステムプログラム408は、他拠点更新ファイルリスト414を参照することでアクセス対象のファイルまたはディレクトリが最新の状態であるかどうかを判断することが可能となる。なお、自拠点または他拠点で更新対象ファイルまたは上位ディレクトリに対してリネームが発生している場合、同期済みファイルリスト509中のファイル名509CとファイルシステムFS_A200内のパスが異なる場合がある。その場合は、FS_A200内のパスに変換した上で、他拠点更新ファイルリスト414に登録する。
 ステップS3006:同期プログラム410は、同期済みファイルリスト509の削除・リネーム処理をファイルシステムFS_A200に対して実施する。なお、これらの処理の前に、ステップS3005のケースと同様、自拠点・他拠点でリネーム処理が発生している場合には、FS_A200内のパスにて処理を行う。
 ステップS3007:同期プログラム410は、同期済みファイルリスト509の処理対象サブツリーに対する更新処理のうち、未処理のものがある場合、ステップS3002以降の処理を繰り返し、そうでない場合は同期済みファイルリスト反映処理を終了する。
 以上で述べた同期済みファイルリスト反映処理を行うことで、他拠点で起きた更新処理を自拠点に反映することができる。
 <公開ディレクトリ設定インタフェース>
 図16は、クライアント101に公開するディレクトリを設定するための管理インタフェースを示す概要図である。
 公開ディレクトリ設定インタフェース4160は、管理画面表示プログラム412により、クライアント101を介して、管理者に提供される。管理者は、FS_A200の公開ディレクトリを設定する際に、用途を指定することでディレクトリ管理テーブル416の内容を設定することができる。
 公開ディレクトリ設定インタフェース4160は、テキスト入力ボックス4160Aおよび、チェックボックス4160Bから4160Eから構成される。
 テキスト入力ボックス4160Aは、公開するディレクトリのパス名を設定するテキスト入力ボックスである。なお、テキスト入力ボックス4160Aにはアスタリスク(“*”)を使用してもよい。テキスト入力ボックス4160Aの入力内容は、ディレクトリ管理テーブル416のトップディレクトリ416Aに該当する。
 チェックボックス4160Bから4160Eは、テキスト入力ボックス4160Aで入力されたディレクトリの用途を指定するためのチェックボックスである。なお、これらのチェックボックスのうちどれか一つが指定された場合、他のチェックボックスは無効化される。チェックボックス4160Bから4160Eはそれぞれ、ディレクトリ管理テーブル416で指定可能な値に該当する。また、図示はしていないがテキスト入力ボックス4160Aでディレクトリのパス名を設定し、設定されたパス名に対応する用途、コンフリクト頻度やデータ同期処理時間の上限などを表示させることもできる。また、図16ではトップディレクトリ公開のタイミングでの用途設定について述べたが、トップディレクトリ以下のディレクトリやファイルについての用途設定においても同様の管理インタフェースを管理者に提供してよい。トップディレクトリ以下のディレクトリを共有として公開する場合にはディレクトリ公開のタイミングで設定し、ディレクトリを共有として公開しない場合には運用中に管理者が任意に設定できるようクライアント101から送信される要求に応じて管理インタフェースを提供して良い。また、ファイルについても同様に運用中に、管理者が必要に応じて設定できるよう、クライアント101から送信される要求に応じて管理インタフェースを提供して良い。
 このように本実施形態によれば、データセンタ経由の拠点間ファイルシステム共有において同期処理を分割することで、複数拠点間で同期処理を並列実行することが可能となる。
 また、本実施形態ではコンフリクト頻度が低い用途のファイルの同期を大きなサブツリー単位で実施する。その結果、ロック獲得回数を削減し、同期処理分割のオーバヘッドによるスループット低下を抑えることができる。
 更に、本発明を用いることで、ロック獲得によるデータ同期のスループット低下を抑えつつ、複数拠点間のデータ同期遅延時間を削減することが可能となる。その結果、より多くの拠点がサポート可能となる。
 なお、本実施例では、用途、コンフリクト発生頻度、ディレクトリやファイルのサイズ、同期上限時間及び、平均スループットなどからサブツリー単位を算出したが、これら全ての要素を必ずしも加味する必要はない。例えば、トップディレクトリが個人用途である場合には、そのトップディレクトリ全体を一つのサブツリーとして判断するようにしても良い。これは、個人用トップディレクトリの場合、アクセスするユーザは一人であり、ある拠点からの更新中に、他拠点からの更新が発生するシーンは考えにくく、当該トップディレクトリ全体を長時間ロックしていても問題が発生しにくいためである。このように判断することにより、サブツリーの判定を簡易に行う事ができ、同期処理をより短時間で実現することができる。
 また、本実施例では拠点間でのサブツリー単位での同期処理の排他のみを実施しているがこれは例示に過ぎない。例えば、コンフリクト発生の低い用途で使用されるサブツリーに対しては、同期処理に加え、クライアントからの更新処理を排他する制御も行うことができる。この場合、ある拠点でコンフリクト発生頻度の低い公開ディレクトリに対し、ファイル更新があった場合、その更新処理がデータセンタに同期されるまで該当ディレクトリに他拠点からの更新を排他する。この場合、同期処理時にコンフリクト解消処理が不要となるため、該当するサブツリーの同期処理をより高いスループットで実現することができる。
 (2)第2の実施形態
 以下、本発明の第2の実施形態について説明する。
 本発明の第1の実施形態では、NASデバイス102は、管理者が設定する公開ディレクトリの用途から、ファイルのコンフリクト発生頻度を推測し、同期処理時間の上限を決めていた。一方、本発明の第2の実施形態では、NASデバイス102は同期処理中のコンフリクト発生回数の統計情報にもとづき、ファイルのコンフリクト発生頻度を推測する。
 第2の実施形態を用いることで、管理者がディレクトリ作成の際に用途を入力することなく、適切なデータ同期処理時間の上限を決めることが可能となる。
 以下の説明では、第1の実施形態との相違点を主に説明し、第1の実施形態との共通点については説明を省略、或いは簡略する。
 <ディレクトリ管理テーブル>
 第2の実施形態では、ディレクトリ管理テーブル416で用途416Bの管理は行わず、統計情報に基づきコンフリクト頻度416C、同期時間上限416Dが設定される。
 以下、図8を用い第1の実施形態との差分を説明する。
 同期プログラム410は、同期処理あたりのコンフリクト平均発生頻度に基づき、コンフリク頻度416C、同期時間上限416Dを更新する。例えば、同期処理あたりの平均コンフリクト発生頻度が1回以下の場合、コンフリクト発生頻度416Cを“低”、3回以上の場合はコンフリクト発生頻度を“高”、そうでない場合を“中”とする。また、同期時間上限は、コンフリクと発生頻度に対し、事前に定められた値を使用する。例えば、コンフリクト発生頻度が“低”の場合は“1時間”、“中”の場合は“30分”、“高”の場合は“5分”とする。
 <同期済みファイルリスト反映処理>
 第2の実施形態では、同期プログラム410は同期済みファイルリスト反映処理にて、拠点間のコンフリクト発生頻度の統計情報を取得する。以下、図15の差分について説明をする。
 ステップS3000:同期プログラム410は従来のコンフリクト検出実施時に、コンフリクト発生回数を、ディレクトリ管理テーブル416のトップディレクトリ416Aごとに記録する。もし、コンフリクト平均発生回数に増減があり、コンフリクト発生頻度416Cに変更が生じた場合、ディレクトリ管理テーブル416のコンフリクト発生頻度416Cと同期時間上限416Dの値を更新する。
 <公開ディレクトリ設定インタフェース>
 第2の実施形態では、管理者は公開ディレクトリ設定時に用途を入力する必要がなくなる。すなわち、図16における4160Bから4160Eのチェックボックスが不要となる。
 このように、第2の実施形態では、NASデバイス112が拠点間のコンフリクト発生頻度の統計情報を取得することで、管理者が用途を入力することなく、コンフリクト発生頻度の推測が可能となる。その結果、管理者の管理コストの削減や、事前にファイルの用途の推測が難しいディレクトリに対しても、本発明が適用可能となる。
 また、他の実施の形態として、ユーザによって入力された416Bの用途や、416Cのコンフリクト頻度を参照して、トップディレクトリ以下のファイルについて、複数拠点からのファイル更新の可否を判断するという形態も考えられる。具体的には、コンフリクト発生可能性が低いトップディレクトリ下のファイルについては複数拠点からのファイル更新を許すが、コンフリクト発生可能性が高いトップディレクトリ下のファイルについては、複数拠点からのファイル更新を許さず、ある特定の拠点からのファイル更新のみを許し、他のサイトからは参照のみが可能となる。なお、この場合、第1の実施例の更新ファイルをサブツリー単位に分割するのは、コンフリクト発生可能性が低いものだけである。何故なら複数拠点からのファイル更新を許されないファイルについてはロックを取る必要性がなく、その範囲であるサブツリーを決定する必要がないためである。サブツリーの範囲を決定する必要のあるディレクトリが減るため、迅速に同期を行う事ができる。
 10 情報処理システム
 100 拠点A(第1のサブ計算機システム)
 110 拠点B(第2のサブ計算機システム)
 101、111 クライアント
 102、112 NASデバイス(NAS)
 105、115 データアクセスネットワーク
 120 データセンタ
 121 CASデバイス(CAS)
 122 CASコントローラ
 123 記憶装置
 124 管理端末
 125 管理ネットワーク
 130、140 バックエンドネットワーク
 200 ファイルシステムFS_A
 210 ファイルシステムFS_A’
 220 ファイルシステムFS_A’’
 406 ファイル共有サーバプログラム
 407 ファイル共有クライアントプログラム
 408 ファイルシステムプログラム
 409 オペレーティングシステム
 410 同期プログラム
 411 同期ファイル分割プログラム
 412 管理画面表示プログラム
 413 自拠点更新ファイルリスト
 413A ファイル名
 413B 更新日時
 413C 更新対象
 413D 更新内容
 414 他拠点更新ファイルリスト
 414A 拠点 
 414B 同期番号
 414B ファイル名
 414D 更新日時
 414E 更新対象
 415 分割同期ファイルリスト
 415A サブツリー番号
 415B 排他範囲
 415C ファイル名
 415D 更新日時
 415E 更新対象
 415F 更新内容
 416 ディレクトリ管理テーブル
 416A トップディレクトリ
 416B 用途
 416C コンフリクト頻度
 416D 同期時間上限
 416E 平均スループット
 509 同期済みファイルリスト
 509A 拠点
 509B 同期番号
 509C ファイル名
 509D 更新日時
 509E 更新対象
 509F 更新内容
 510 ロックリスト
 510A サブツリールート
 510B ロックオーナー
 510C 獲得日時
 510D 保持期間

Claims (14)

  1.  情報処理システムであって、
    前記情報処理システムは、
     複数の第1の計算機と、前記複数の第1の計算機に接続する第2の計算機とを備え、
     前記複数の第1の計算機はそれぞれ、第1のコントローラと第1の記憶媒体とを備え、
     前記第2の計算機は、第2のコントローラと第2の記憶媒体とを備え、
     前記複数の第1の計算機は第3の計算機に接続され、
     前記第1のコントローラは、前記第3の計算機から送信されたファイルを前記第1の記憶媒体に格納し、
     前記第2のコントローラは、前記複数の第1の計算機のうちのひとつの第1の計算機から送信されたファイルを前記第2の記憶媒体に格納し、前記ファイルは前記複数の第1の計算機から更新可能であり、
     前記複数の第1の計算機のうちのひとつの第1の計算機である更新反映元第1の計算機でのファイル更新を前記第2の計算機に反映するデータ同期処理として、前記更新反映元第1の計算機の前記第1のコントローラは、データ同期処理対象群を複数のファイルサブツリーに分割し、前記ファイルサブツリー毎にデータ同期を実行する
     ことを特徴とする情報処理システム。
     
  2.  請求項1記載の情報処理システムであって、前記ファイルサブツリーは、
     前記更新反映元第1の計算機に予め格納された前記データ同期処理対象群を構成するディレクトリまたはファイルの用途に応じて決定される
     ことを特徴とする情報処理システム。
     
  3.  請求項2記載の情報処理システムであって、前記ファイルサブツリーは、
     前記データ同期の1回当たりの処理時間がデータ同期処理の上限時間以下となるように決定される
     ことを特徴とする情報処理システム。
     
  4.  請求項3記載の情報処理システムであって、前記ファイルサブツリーは、
     前記更新反映元第1の計算機と前記第2の計算機との間の平均転送速度に、前記データ同期処理の上限時間を乗算し算出されたデータ容量以下となるように決定される
     ことを特徴とする情報処理システム。
     
  5.  請求項4記載の情報処理システムであって、
     前記更新反映元第1の計算機に予め格納された前記データ同期処理対象群を構成するディレクトリまたはファイルの用途により、
     前記更新反映元第1の計算機と、前記更新反映元第1の計算機以外の前記複数の第1の計算機のうちの1つ以上の第1の計算機とが、同一ファイルに対し更新が行われるコンフリクト頻度が決定される
     ことを特徴とする情報処理システム。
     
  6.  請求項5記載の情報処理システムであって、
     前記データ同期を行うファイルの総サイズを、前記更新反映元第1の計算機に予め格納された前記データ同期処理対象群を構成するディレクトリまたはファイルの用途に応じて決定される平均転送速度で、除算して前記データ同期処理の上限時間が算出される
     ことを特徴とする情報処理システム。
     
  7.  請求項2記載の情報処理システムであって、前記データ同期処理は、
     前記ファイルサブツリーの更新内容を反映する前記第2の記憶媒体での記憶領域に対し、前記更新反映元第1の計算機以外の第1の計算機からのアクセスを禁止して実行される
     ことを特徴とする情報処理システム。
     
  8.  請求項2記載の情報処理システムであって、
     前記更新反映元第1の計算機と、前記更新反映元第1の計算機以外の前記複数の第1の計算機のうちの1つ以上の第1の計算機とが、同一ファイルに対し更新が行われるコンフリクトの頻度は、所定時間に発生したコンフリクトの回数を前記所定時間で除算して算出される
     ことを特徴とする情報処理システム。
     
  9.  請求項1記載の情報処理システムであって、前記複数の第1の計算機それぞれは、
     第1のコントローラ上で動作する前記複数の第1の計算機への情報設定または前記複数の第1の計算機での情報出力を実行する管理インタフェースを備え、
     前記管理インタフェースを第3の計算機に送信し、前記管理インタフェースで前記複数の第1の計算機に予め格納される前記データ同期処理対象群を構成するディレクトリまたはファイルの用途が入力される
     ことを特徴とする情報処理システム。
     
  10.  請求項1記載の情報処理システムであって、
     前記更新反映元第1の計算機と、前記更新反映元第1の計算機以外の前記複数の第1の計算機のうちの1つ以上の第1の計算機とが、同一ファイルに対し更新が行われるコンフリクトの頻度が高いファイルサブツリーのファイルから前記データ同期処理を実行する
     ことを特徴とする情報処理システム。
     
  11.  請求項10記載の情報処理システムであって、コンフリクト頻度が同じファイルサブツリーが複数存在する場合には、ファイルサブツリーのデータサイズが小さいものから優先して前記データ同期処理を実行する
     ことを特徴とする情報処理システム。
     
  12.  異なる記憶領域間でのデータ同期を制御する方式であって、
     前記異なる記憶領域は、
     ファイルを格納する第1の記憶領域と、
     前記第1の記憶領域に格納されたファイルを送信し、前記送信されたファイルを格納する第2の記憶領域とを有し、
     前記第1の記憶領域及び第2の記憶領域に格納されたファイルは更新可能であり、
     前記第1の記憶領域に格納されたファイルの更新内容を前記第2の記憶領域に格納されたファイルに反映するデータ同期処理で、
     データ同期処理対象群を複数のファイルサブツリーに分割し、前記ファイルサブツリー毎にデータ同期を実行する
     ことを特徴とするデータ同期制御方式。
     
  13.  請求項12記載のデータ同期制御方式であって、前記ファイルサブツリーは、
     予め格納された前記データ同期処理対象群を構成するディレクトリまたはファイルの用途に応じて決定される
     ことを特徴とするデータ同期制御方式。
     
  14.  請求項1記載の情報処理システムであって、前記更新反映元第1の計算機の前記第1のコントローラは、
     (1)前記更新反映元第1の計算機に予め格納された前記データ同期処理対象群を構成するディレクトリの用途
     (2)前記更新反映元第1の計算機に予め格納されたファイルの用途
     (3)前記データ同期の1回当たりの処理時間がデータ同期処理の上限時間
     (4)前記データ同期処理を行う前記更新反映元第1の計算機と前記第2の計算機との間の平均転送速度と、前記データ同期処理の上限時間とを乗算し算出されたデータ容量
     のいずれかで、データ同期処理対象群を複数のファイルサブツリーに分割し、
     前記データ同期処理は、
     前記更新反映元第1の計算機と、前記更新反映元第1の計算機以外の前記複数の第1の計算機のうちの1つ以上の第1の計算機とが、同一ファイルに対し更新が行われるコンフリクトの頻度が高いファイルサブツリーからデータ同期を実行し、
     コンフリクト頻度が同じファイルサブツリーが複数存在する場合には、ファイルサブツリーのデータサイズが小さいものから優先してデータ同期を実行し、
     前記ファイルサブツリー更新内容の前記第2の計算機への反映が可能かを判断し、
     前記反映が可能と判断された場合には、
     前記ファイルサブツリー更新内容を反映する前記第2の計算機での記憶領域に対する更新反映元第1の計算機以外の第1の計算機からのアクセスを禁止し、
     前記更新反映元第1の計算機のコンフリクト発生ファイルの更新時間と前記第2の計算機のコンフリクト発生ファイルの更新時間とを比較して前記第1の計算機での更新時間が古い場合には、前記第2の計算機のファイルサブツリーのファイルを、前記ファイルサブツリーのファイルが格納されている記憶領域と異なる記憶領域に退避し、
     前記アクセスを禁止している時間が、予め設定されている禁止時間の上限を超えた場合はアクセスの禁止を解除し、
     前記反映が可能でないと判断された場合は、
     当該ファイルサブツリー以外のファイルサブツリーでのデータ同期を実行する
     ことを特徴とする情報処理システム。
PCT/JP2013/053909 2013-02-19 2013-02-19 情報処理システム及びそのデータ同期制御方式 WO2014128819A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2013/053909 WO2014128819A1 (ja) 2013-02-19 2013-02-19 情報処理システム及びそのデータ同期制御方式
JP2015501101A JP6033949B2 (ja) 2013-02-19 2013-02-19 情報処理システム
US14/759,975 US10191915B2 (en) 2013-02-19 2013-02-19 Information processing system and data synchronization control scheme thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/053909 WO2014128819A1 (ja) 2013-02-19 2013-02-19 情報処理システム及びそのデータ同期制御方式

Publications (1)

Publication Number Publication Date
WO2014128819A1 true WO2014128819A1 (ja) 2014-08-28

Family

ID=51390657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/053909 WO2014128819A1 (ja) 2013-02-19 2013-02-19 情報処理システム及びそのデータ同期制御方式

Country Status (3)

Country Link
US (1) US10191915B2 (ja)
JP (1) JP6033949B2 (ja)
WO (1) WO2014128819A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016121082A1 (ja) * 2015-01-30 2016-08-04 株式会社日立製作所 計算機システム、ファイルストレージ装置、およびストレージ制御方法
WO2016121084A1 (ja) * 2015-01-30 2016-08-04 株式会社日立製作所 計算機システム、ファイルストレージコントローラ、及び、データ共有方法
WO2016121083A1 (ja) * 2015-01-30 2016-08-04 株式会社日立製作所 計算機システム、分散オブジェクト共有方法、エッジノード
JP2020095589A (ja) * 2018-12-14 2020-06-18 株式会社アール・アイ 仮想ファイル処理システム及び仮想ファイル処理プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5783301B1 (ja) 2014-06-11 2015-09-24 富士ゼロックス株式会社 通信端末、通信システム及びプログラム
US9824093B1 (en) * 2014-06-30 2017-11-21 EMC IP Holding Company LLC Datacenter maintenance
US20170154066A1 (en) * 2015-11-30 2017-06-01 International Business Machines Corporation Subscription service for monitoring changes in remote content
JP6677072B2 (ja) * 2016-05-13 2020-04-08 富士通株式会社 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法
CN107770273A (zh) * 2017-10-23 2018-03-06 上海斐讯数据通信技术有限公司 一种大文件云同步方法及系统
US10866963B2 (en) 2017-12-28 2020-12-15 Dropbox, Inc. File system authentication
US11593315B2 (en) * 2018-06-26 2023-02-28 Hulu, LLC Data cluster migration using an incremental synchronization
US11645236B2 (en) * 2020-09-16 2023-05-09 EMC IP Holding Company LLC Extending retention lock protection from on-premises to the cloud

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155710A (ja) * 1998-11-20 2000-06-06 Toshiba Corp ネットワークコンピュータおよびそのネットワークコンピュータにおける同期処理方法
JP2002373101A (ja) * 2001-06-14 2002-12-26 Hitachi Ltd ディレクトリ間連携方法
JP2008152772A (ja) * 2006-12-14 2008-07-03 Qnx Software Systems Gmbh & Co Kg 同期順序の割り込み優先順位を用いた同期を有するメディアシステム
US20120259813A1 (en) * 2011-04-08 2012-10-11 Hitachi, Ltd. Information processing system and data processing method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5319780A (en) 1987-10-19 1994-06-07 International Business Machines Corporation System that implicitly locks a subtree or explicitly locks a node based upon whether or not an explicit lock request is issued
US6161125A (en) * 1998-05-14 2000-12-12 Sun Microsystems, Inc. Generic schema for storing configuration information on a client computer
JP4378029B2 (ja) * 1999-04-27 2009-12-02 キヤノン株式会社 データ処理方法及び装置及び記憶媒体
US7085779B2 (en) 2001-06-04 2006-08-01 Sun Microsystems, Inc. File tree change reconciler
US8037438B2 (en) * 2009-02-27 2011-10-11 International Business Machines Corporation Techniques for parallel buffer insertion
EP2740055A4 (en) * 2011-08-01 2015-09-09 Tagged Inc SYSTEMS AND METHOD FOR ASYNCHRONOUS DISTRIBUTED DATABASE MANAGEMENT
EP2791831B1 (en) * 2012-01-25 2020-03-11 Hitachi, Ltd. Single instantiation method using file clone and file storage system utilizing the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155710A (ja) * 1998-11-20 2000-06-06 Toshiba Corp ネットワークコンピュータおよびそのネットワークコンピュータにおける同期処理方法
JP2002373101A (ja) * 2001-06-14 2002-12-26 Hitachi Ltd ディレクトリ間連携方法
JP2008152772A (ja) * 2006-12-14 2008-07-03 Qnx Software Systems Gmbh & Co Kg 同期順序の割り込み優先順位を用いた同期を有するメディアシステム
US20120259813A1 (en) * 2011-04-08 2012-10-11 Hitachi, Ltd. Information processing system and data processing method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016121082A1 (ja) * 2015-01-30 2016-08-04 株式会社日立製作所 計算機システム、ファイルストレージ装置、およびストレージ制御方法
WO2016121084A1 (ja) * 2015-01-30 2016-08-04 株式会社日立製作所 計算機システム、ファイルストレージコントローラ、及び、データ共有方法
WO2016121083A1 (ja) * 2015-01-30 2016-08-04 株式会社日立製作所 計算機システム、分散オブジェクト共有方法、エッジノード
JPWO2016121083A1 (ja) * 2015-01-30 2017-08-24 株式会社日立製作所 計算機システム、分散オブジェクト共有方法、エッジノード
US10412163B2 (en) 2015-01-30 2019-09-10 Hitachi, Ltd. Computer system, distributed object sharing method, and edge node
US10459893B2 (en) 2015-01-30 2019-10-29 Hitachi, Ltd. Computer system, file storage apparatus, and storage control method
US11106635B2 (en) 2015-01-30 2021-08-31 Hitachi, Ltd. Computer system, file storage controller, and data sharing method
JP2020095589A (ja) * 2018-12-14 2020-06-18 株式会社アール・アイ 仮想ファイル処理システム及び仮想ファイル処理プログラム
JP7164176B2 (ja) 2018-12-14 2022-11-01 アップデータ株式会社 仮想ファイル処理システム及び仮想ファイル処理プログラム

Also Published As

Publication number Publication date
JPWO2014128819A1 (ja) 2017-02-02
US20150358408A1 (en) 2015-12-10
JP6033949B2 (ja) 2016-11-30
US10191915B2 (en) 2019-01-29

Similar Documents

Publication Publication Date Title
JP6033949B2 (ja) 情報処理システム
US11650959B2 (en) System and method for policy based synchronization of remote and local file systems
US10019460B2 (en) Hosted file sync with direct access to hosted files
EP2836901B1 (en) Method and apparatus for virtualization of a file system, data storage system for virtualization of a file system, and file server for use in a data storage system
JP5433074B2 (ja) ストレージクラスタを指定可能な複製されたコンテンツのための非同期的分散オブジェクトアップロード
JP5918244B2 (ja) フォールトトレラントデータベース管理システムにおいてクエリ結果を統合するシステム及び方法
JP5661188B2 (ja) ファイルシステム及びデータ処理方法
US9798486B1 (en) Method and system for file system based replication of a deduplicated storage system
US8762344B2 (en) Method for managing information processing system and data management computer system
US20170124111A1 (en) System And Method For Synchronizing File Systems With Large Namespaces
EP2615566A2 (en) Unified local storage supporting file and cloud object access
JP5516575B2 (ja) データ挿入システム
US20110196838A1 (en) Method and System for Managing Weakly Mutable Data In A Distributed Storage System
JP2013545162A5 (ja)
TW201227291A (en) Data deduplication
US20120254555A1 (en) Computer system and data management method
JP6279770B2 (ja) ファイルサーバ装置
WO2017187311A1 (en) Storage constrained synchronization engine
Liu et al. UGSD: scalable and efficient metadata management for EB-scale file systems
US11656946B2 (en) Cloud-native global file system with reshapable caching
WO2023033100A1 (en) Processing apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13876068

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015501101

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14759975

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13876068

Country of ref document: EP

Kind code of ref document: A1