CN103858109A - 信息处理系统及使用该信息处理系统的文件恢复方法 - Google Patents
信息处理系统及使用该信息处理系统的文件恢复方法 Download PDFInfo
- Publication number
- CN103858109A CN103858109A CN201180074094.1A CN201180074094A CN103858109A CN 103858109 A CN103858109 A CN 103858109A CN 201180074094 A CN201180074094 A CN 201180074094A CN 103858109 A CN103858109 A CN 103858109A
- Authority
- CN
- China
- Prior art keywords
- server unit
- file
- catalogue
- snapshot
- request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2056—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
- G06F11/2069—Management of state, configuration or failover
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
- G06F11/1464—Management of the backup or restore process for networked environments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/14—Error detection or correction of the data by redundancy in operation
- G06F11/1402—Saving, restoring, recovering or retrying
- G06F11/1446—Point-in-time backing up or restoration of persistent data
- G06F11/1458—Management of the backup or restore process
- G06F11/1469—Backup restoration techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/185—Hierarchical storage management [HSM] systems, e.g. file migration or policies thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2056—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
- G06F11/2071—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring using a plurality of controllers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2056—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant by mirroring
- G06F11/2082—Data synchronisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
在基于用户进行文件访问请求时,能够以较少的存储占用量迅速地恢复文件。在进行文件恢复时,第2服务器装置(3b)将存储于第2存储器装置(10b)的文件的数据中的、在与恢复目的地目录建立关联的时间构成于第1服务器装置(3a)的文件系统中的目录快照的、从最上位目录至规定的下位层级的目录快照发送到第1服务器装置(3a),第1服务器装置(3a)将目录快照恢复至第1存储器装置(10a)。第2服务器装置(3b)在从第1服务器装置传送来请求的情况下,从第2存储器装置(10b)读取追加的目录快照并发送到第1服务器装置(3a)。
Description
技术领域
本发明涉及具有文件恢复功能的信息处理系统。
背景技术
作为信息处理系统中的文件的恢复系统的现有例,公知存在下述专利文献1及专利文献2。其中,在专利文献1中记载有,为了减少分级存储装置的复原所需要的时间并高速地进行分级存储装置的复原,在操作系统上运行的分级存储装置中具有:第1存储装置,其具有包含文件属性信息的i节点且构筑有以该i节点序号唯一识别该文件的文件系统,和第2存储装置,其存储包含文件系统的备份数据在内的数据,在该分级存储装置的复原方法中,在从第2存储装置上的备份数据将文件系统复原到第1存储装置上时,使用包含于备份数据的i节点序号,指定复原对象文件的i节点序号,并将所指定的i节点序号分配到文件系统的复原对象文件。
在专利文献2中记载有,为了高效地进行HSM中的名称空间的备份的世代管理,进行具有一级存储器和二级存储器的HSM的控制,在该HSM控制方法中,按HSM的每一次备份,生成包含该备份的世代序号的信息即世代信息,并将HSM中的与每一个文件的名称空间相关的信息即名称空间信息、和有效世代序号范围作为名称空间信息历史而进行管理,其中,有效世代序号范围使用通过世代信息生成步骤生成的世代序号来表示与该名称空间相关的信息为有效的世代序号的范围。
现有技术文献
专利文献
专利文献1:日本特开2005-316708号公报
专利文献2:日本特开2008-040699号公报
发明内容
但是,在通过设于数据中心等的备份装置来管理设于企业的分店或事业所等的信息处理装置的数据备份的信息处理系统中,在利用信息处理装置来访问文件的用户不小心删除文件的情况下,期望通过该用户的操作来恢复所删除的文件。
在专利文献1所公开的方法中,在将备份装置侧的备份数据全部恢复到信息处理装置之后再次开始信息处理装置的服务。因此,例如,在备份数据的大小较大的情况下,在用户想要获取的文件完成恢复之前需要花费长时间,且过大地占用了信息处理装置的文件系统容量,存在对用户的业务等产生影响的情况。
另一方面,在专利文献2所公开的方法中,检索对信息处理装置所具有的全部文件的世代进行管理的列表而特定恢复对象。因此,例如,在文件系统上存在大量文件的情况下或文件的更改次数较多的情况下,列表的大小增大,在用户想要获取的文件完成恢复之前需要花费长时间,且过大地占用了信息处理装置的文件系统容量,存在对用户的业务等产生影响的情况。
本发明是鉴于这种背景而研发的,其主要目的在于,提供一种在基于用户进行文件访问请求时能够以较少的文件系统占用量迅速地恢复文件的、信息处理系统中的文件恢复方法及信息处理系统。
用于实现上述目的的本发明为一种信息处理系统,包括:第1服务器装置,其具有第1文件系统,从客户端装置受理I/O请求;第1存储器装置,其构成上述第1服务器装置的存储器;第2服务器装置,其具有第2文件系统,以能够通信的方式与上述第1服务器装置连接;和第2存储器装置,其构成上述第2服务器装置的存储器,上述第1服务器装置将存储于上述第1存储器装置的、作为上述I/O请求的对象的文件的数据发送到上述第2服务器装置,
上述第2服务器装置通过上述第2文件系统保持上述第1文件系统中的目录快照,同时将从上述第1服务器装置传送来的上述数据存储到上述第2存储器装置,上述信息处理系统的特征在于,上述第2服务器装置从记载于上述第2存储器装置的目录快照获取构成于上述第1服务器装置的文件系统的目录快照中的规定层级的第1目录快照,并发送到上述第1服务器装置,上述第1服务器装置在将从上述第2服务器装置传送来的上述第1目录快照恢复至上述第1存储器装置后,当从上述客户端装置受理对想要恢复的文件的I/O请求时,判断对该受理的上述I/O请求进行处理所需要的第2目录快照是否存在于上述第1存储器装置的上述第1目录快照,在该第2目录快照不存在的情况下,向上述第2服务器装置请求该第2目录快照,上述第2服务器装置在从上述第1服务器装置传送来上述请求后,从上述第2存储器装置读取上述第2目录快照并发送到上述第1服务器装置,该第1服务器装置将上述第2目录快照恢复至上述第1存储器装置,上述第1服务器装置将包括上述第1目录快照、上述第2目录快照、上述文件在内的目的目录快照恢复至上述第1存储器,上述第2服务器装置的上述第2文件系统在每次进行文件系统对象的生成或更新时,以不同的版本ID管理该生成或更新后的文件系统对象,上述第1服务器装置在恢复上述目的目录的过程中利用上述版本ID。
发明效果
根据本发明,能够在基于用户进行文件访问请求时以较少的存储占用量迅速地恢复文件。
附图说明
图1是表示第一实施方式中的信息处理系统1的概略结构图。
图2是第一实施方式中的客户端装置2的硬件的一例。
图3是第一实施方式中的能够作为第1服务器装置3a或第2服务器装置3b而利用的信息处理装置的硬件的一例。
图4是第一实施方式中的第1存储器装置10a或第2存储器装置10b的硬件的一例。
图5是第一实施方式中的信道基板11的硬件的一例。
图6是第一实施方式中的处理器基板12的硬件的一例。
图7是第一实施方式中的驱动基板13的硬件的一例。
图8是表示第一实施方式中的存储器装置10所具有的基本功能的图。
图9是说明第一实施方式中的写入处理S900的流程图。
图10是说明第一实施方式中的读取处理S1000的流程图。
图11是表示第一实施方式中的客户端装置2所具有的主要功能的图。
图12是表示第一实施方式中的第1服务器装置3a所具有的主要功能及在第1服务器装置3a中管理的主要信息(数据)的图。
图13是第一实施方式中的复制信息管理表331的一例。
图14是第一实施方式中的文件访问日志335的一例。
图15是表示第一实施方式中的第2服务器装置3b所具有的主要功能及在第2服务器装置3b中管理的主要信息(数据)的图。
图16是第一实施方式中的归还(restore)日志365的一例。
图17是第一实施方式中的节点的说明图。
图18是第一实施方式中的节点的概念的说明图。
图19是第一实施方式中的节点的概念的说明图。
图20是第一实施方式中的普通的节点管理表1712的一例。
图21是第一实施方式中的、本实施方式的节点管理表1712的一例。
图22是第一实施方式中的版本管理表221的一例。
图23是第一实施方式中的目录快照管理表231的一例。
图24是第一实施方式中的复制开始处理S2400的说明图。
图25是第一实施方式中的存根化候选选择处理S2500的说明图。
图26是第一实施方式中的存根化处理S2600的说明图。
图27是第一实施方式中的复制文件更新处理S2700的说明图。
图28是第一实施方式中的复制文件参照处理S2800的说明图。
图29是第一实施方式中的元数据访问处理S2900的说明图。
图30是第一实施方式中的存根化文件实体参照处理S3000的说明图。
图31是第一实施方式中的存根化文件实体更新处理S3100的说明图。
图32是第一实施方式中的目录快照生成处理S3200的说明图。
图33是第一实施方式中的按需恢复处理S3300的说明图。
图34是第一实施方式中的目录快照逐渐恢复至第1存储器装置10a的状况的说明图。
图35是第一实施方式中的目录快照删除处理S3500的说明图。
图36是说明第一实施方式中的复制开始处理S2400的详细情况的流程图。
图37是说明第一实施方式中的存根化候选选择处理S2500的详细情况的流程图。
图38是说明第一实施方式中的存根化处理S2600的详细情况的流程图。
图39是说明第一实施方式中的复制文件更新处理S2700的详细情况的流程图。
图40是说明第一实施方式中的复制文件参照处理S2800的详细情况的流程图。
图41是说明第一实施方式中的元数据访问处理S2900的详细情况的流程图。
图42是说明第一实施方式中的存根化文件实体参照处理S3000的详细情况的流程图。
图43是说明第一实施方式中的存根化文件实体更新处理S3100的详细情况的流程图。
图44是说明第一实施方式中的目录快照生成处理S3200的详细情况的流程图。
图45是说明第一实施方式中的按需恢复处理S3300的详细情况的流程图。
图46是说明第一实施方式中的按需恢复处理S3300的详细情况的流程图。
图47是说明第一实施方式中的目录快照删除处理S3500的详细情况的流程图。
图48是说明第二实施方式中的目录快照生成处理S3200的详细情况的流程图。
图49是说明第二实施方式中的按需恢复处理S3300的详细情况的流程图。
具体实施方式
(第一实施方式)
以下,说明附图和用于实施本发明的第一方式。
图1示出作为实施方式而说明的信息处理系统1的概略结构。如该图所示,作为本实施方式而例示的信息处理系统1包括:设于商社或电机生产商等企业的分店或事业所等那样、用户实际进行业务的据点(以下称作边缘层50(Edge))的硬件;和设于数据中心那样、进行信息处理系统(应用服务器/存储器系统等)的管理或提供云服务等的据点(以下称作核心层51(Core))的硬件。
如该图所示,在边缘层50中设有第1服务器装置3a、第1存储器装置10a及客户端装置2。另外,在核心层51中设有第2服务器装置3b及第2存储器装置10b。
设置在边缘层中的第1服务器装置3a例如为文件存储器装置,具有对设置在边缘层中的客户端装置2提供以文件为单位的数据的管理功能的文件系统。另外,设置在核心层中的第2服务器装置3b例如为归档装置,相对于设置在边缘层中的第1存储器装置10a作为数据的归档(档案库)目的地而发挥功能。
如该图所示,客户端装置2和第1服务器装置3a经由通信网络5以能够通信的方式连接。另外,第1服务器装置3a和第1存储器装置10a经由第1存储网络6a以能够通信的方式连接。另外,第2服务器装置3b和第2存储器装置10b经由第2存储网络6b以能够通信的方式连接。另外,第1服务器装置3a和第2服务器装置3b经由通信网络7以能够通信的方式连接。
通信网络5及通信网络7例如为LAN(Local Area Network)、WAN(Wide Area Network)、因特网、公用通信网、专用线等。第1存储网络6a及第2存储网络6b例如为LAN、WAN、SAN(Storage AreaNetwork)、因特网、公用通信网、专用线等。
经由通信网络5、通信网络7、第1存储网络6a及第2存储网络6b进行的通信例如遵从TCP/IP、iSCSI(internet Small Computer SystemInterface)、光纤信道协议(Fibre Channel Protocol)、FICON(FibreConnection)(注册商标)、ESCON(Enterprise System Connection)(注册商标)、ACONARC(Advanced Connection Architecture)(注册商标)、FIBARC(Fibre Connection Architecture)(注册商标)等协议而进行。
客户端装置2为经由第1服务器装置3a而利用第1存储器装置10a所提供的存储区域的信息处理装置(计算机),例如,为个人计算机、办公计算机等。在客户端装置2中,通过文件系统、内核和驱动器等软件模块而实现的操作系统(Operating System)及应用程序等发挥功能。
图2示出客户端装置2的硬件。如该图所示,客户端装置2具有:CPU21、易失性或非易失性的存储器22(RAM或ROM)、存储装置23(例如硬盘驱动器、半导体存储装置(SSD(Solid State Drive)))、键盘和鼠标等输入装置24、液晶显示器或打印机等输出装置25、以及NIC(Network Interface Card)(以下称作LAN适配器261)等通信接口(称作通信I/F26)。
第1服务器装置3a是利用第1存储器装置10a所提供的存储区域向客户端装置2提供信息处理服务的信息处理装置。第1服务器装置3a使用个人计算机、主机(Mainframe)、办公计算机等而构成。第1服务器装置3a在向第1存储器装置10a所提供的存储区域进行访问时,将包含数据I/O请求(数据写入请求、数据读取请求等)在内的数据帧(以下简记为帧)经由第1存储网络6a而发送到第1存储器装置10a。此外,上述帧例如为光纤信道的帧(FC帧(FC:FibreChannel))。
第2服务器装置3b是利用第2存储器装置10b所提供的存储区域来进行信息处理的信息处理装置。第2服务器装置3b使用个人计算机、主机、办公计算机等而构成。第2服务器装置3b在向第2存储器装置10b所提供的存储区域进行访问时,将包含数据I/O请求在内的帧经由第2存储网络6b而发送到第2存储器装置10b。
图3示出第1服务器装置3a的硬件。如该图所示,第1服务器装置3a具有:CPU31、易失性或非易失性的存储器32(RAM或ROM)、存储装置33(例如硬盘驱动器、半导体存储装置(SSD))、键盘和鼠标等输入装置34、液晶显示器或打印机等输出装置35、NIC(以下称作LAN适配器361)或HBA(以下称作FC适配器362)等通信接口(记作通信I/F36)、以及使用计时电路或RTC等构成的计时装置37。此外,存在于核心层侧的第2服务器装置3b也具有与第1服务器装置3a相同或类似的硬件结构。
图4示出第1存储器装置10a的硬件。第1存储器装置10a例如为磁盘阵列装置。此外,存在于核心层侧的第2存储器装置10b也具有与第1存储器装置10a相同或类似的硬件结构。存储器装置10受理从服务器装置3(第1服务器装置3a或第2服务器装置3b。以下相同)传送来的数据I/O请求,并根据所受理的数据I/O请求而访问存储介质并向服务器装置3发送数据或响应。
如该图所示,存储器装置10具有:一个以上的信道基板11、一个以上的处理器基板12(Micro Processor)、一个以上的驱动基板13、高速缓冲存储器14(Cache Memory)、共用存储器15(SharedMemory)、内部开关16、存储装置17、以及维护装置18(SVP:SerViceProcessor)。信道基板11、处理器基板12、驱动基板13、高速缓冲存储器14及共用存储器15经由内部开关16以能够相互通信的方式连接。
信道基板11接收从服务器装置3传送来的帧,并将包含针对所接收的帧含有的数据I/O请求的处理的响应(例如读取的数据、完成读取报告、完成写入报告)在内的帧发送到服务器装置3。
处理器基板12根据信道基板11所接收的帧含有的上述数据I/O请求,进行与在信道基板11、驱动基板13及高速缓冲存储器14之间进行的数据传送(使用DMA(Direct Memory Access)等的高速大容量的数据传送)相关的处理。处理器基板12进行经由高速缓冲存储器14而进行的信道基板11与驱动基板13之间的数据(从存储装置17读取的数据、写入存储装置17的数据)的传送(交付)、存储于高速缓冲存储器14的数据的登台(staging)(从存储装置17读取数据)及离台(destaging)(向存储装置17写入)等。
高速缓冲存储器14使用能够进行高速访问的RAM(RandomAccess Memory)而构成。在高速缓冲存储器14中存储有要写入存储装置17的数据(以下称作写入数据)和从存储装置17读取的数据(以下记载为读取数据)等。在共用存储器15中存储有用于控制存储器装置10的各种信息。
驱动基板13在从存储装置17读取数据或向存储装置17写入数据时与存储装置17进行通信。内部开关16使用例如高速纵横开关(Cross Bar Switch)而构成。此外,经由内部开关16进行的通信,例如遵从光纤信道、iSCSI、TCP/IP等协议而进行。
存储装置17具有多个存储驱动器171而构成。存储驱动器171例如为SAS(Serial Attached SCSI)、SATA(Serial ATA)、FC(FibreChannel)、PATA(Parallel ATA)、SCSI等类型的硬盘驱动器、半导体存储装置(SSD)等。
存储装置17使通过以例如RAID(Redundant Arrays ofInexpensive(or Independent)Disks)等方式控制存储驱动器171而提供的逻辑存储区域为单位,向服务器装置3提供存储装置17的存储区域。该逻辑存储区域例如为使用RAID组(奇偶组(Parity Group))而构成的逻辑装置(LDEV172(LDEV:Logical Device))。
另外,存储器装置10对服务器装置3提供使用LDEV172而构成的逻辑存储区域(以下,称作LU(Logical Unit、Logical Volume、逻辑卷))。存储器装置10管理LU与LDEV172之间的对应(关系),存储器装置10根据该对应而进行与LU对应的LDEV172的特定、或与LDEV172对应的LU的特定。
图5示出信道基板11的硬件结构。如该图所示,信道基板11包括:具有用于与服务器装置3进行通信的端口(通信端口)的外部通信接口(以下记作外部通信I/F111)、处理器112(包含帧处理芯片及帧传送芯片)、存储器113、和具有用于与处理器基板12进行通信的端口(通信端口)的内部通信接口(以下记作内部通信I/F114)。
外部通信I/F111使用NIC(Network Interface Card)或HBA(HostBus Adaptor)等而构成。处理器112使用CPU(Central Processing Unit)、MPU(Micro Processing Unit)等而构成。存储器113为RAM(RandomAccess Memory)、ROM(Read Only Memory)。在存储器113中存储有微程序。处理器112从存储器113读取并执行上述微程序,由此实现信道基板11所提供的各种功能。内部通信I/F114经由内部开关16而与处理器基板12、驱动基板13、高速缓冲存储器14、共用存储器15进行通信。
图6示出处理器基板12的硬件结构。处理器基板12具有:内部通信接口(以下记作内部通信I/F121)、处理器122、以及与共用存储器15相比来自处理器122的访问性能较高的(能够进行高速访问的)存储器123(本地存储器)。在存储器123中存储有微程序。处理器122从存储器123读取并执行上述微程序,由此实现处理器基板12所提供的各种功能。
内部通信I/F121经由内部开关16而与信道基板11、驱动基板13、高速缓冲存储器14及共用存储器15进行通信。处理器122使用CPU、MPU、DMA(Direct Memory Access)等而构成。存储器123为RAM或ROM。处理器122能够访问存储器123及共用存储器15中的任一个。
图7示出驱动基板13的硬件结构。驱动基板13具有:内部通信接口(以下记作内部通信I/F131)、处理器132、存储器133及驱动接口(以下记作驱动I/F134)。在存储器133中存储有微程序。处理器132从存储器133读取并执行上述微程序,由此实现驱动基板13所提供的各种功能。内部通信I/F131经由内部开关16而与信道基板11、处理器基板12、高速缓冲存储器14及共用存储器15进行通信。处理器132使用CPU、MPU等而构成。存储器133例如为RAM、ROM。驱动I/F134在与存储装置17之间进行通信。
图4所示的维护装置18进行存储器装置10的各结构要素的控制和状态监视。维护装置18为个人计算机或办公计算机等。维护装置18经由内部开关16或LAN等通信装置而随时与信道基板11、处理器基板12、驱动基板13、高速缓冲存储器14、共用存储器15及内部开关16等存储器装置10的结构要素进行通信,从各结构要素获取运行信息等并提供到管理装置19。另外,维护装置18根据从管理装置19传送来的控制信息或运行信息,进行各结构要素的设定或控制、维护(包含软件的导入和更新)。
管理装置19为经由LAN等以能够通信的方式与维护装置18连接的计算机。管理装置19具有用于存储器装置10的控制和监视的、使用了GUI(Graphical User Interface)或CLI(Command Line Interface)等的用户界面。
图8示出存储器装置10所具有的基本功能。如该图所示,存储器装置10具有I/O处理部811。I/O处理部811具有:进行与向存储装置17的写入相关的处理的数据写入处理部8111、进行与从存储装置17读取数据相关的处理的数据读取处理部8112。
此外,I/O处理部811的功能通过存储器装置10的信道基板11或处理器基板12、驱动基板13所具有的硬件而实现,或者通过处理器112、122、132读取并执行存储于存储器113、123、133的微程序而实现。
图9是说明在存储器装置10(第1存储器装置10a或第2存储器装置10b。以下相同)从服务器装置3(第1服务器装置3a或第2服务器装置3b)接收包含数据写入请求在内的帧的情况下,通过I/O处理部81的数据写入处理部8111而进行的基本处理(以下称作写入处理S900)的流程图。以下,说该图和写入处理S900。此外,在以下说明中,标注于附图标记前的字符“S”表示处理步骤。
如该图所示,首先,通过存储器装置10的信道基板11接收从服务器装置3发送来的数据写入请求的帧(S911、S912)。
信道基板11在从服务器装置3接收包含数据写入请求在内的帧后,将该情况通知到处理器基板12(S913)。
处理器基板12在从信道基板11接收上述通知后(S921),生成基于该帧的数据写入请求的驱动写入请求,将写入数据存储到高速缓冲存储器14中,并向信道基板11对上述通知的接收通知进行响应(S922)。另外,处理器基板12将生成的驱动写入请求发送到驱动基板13(S923)。
另一方面,信道基板11在接收来自处理器基板12的上述响应后,向服务器装置3发送完成报告(S914),服务器装置3从信道基板11接收完成报告(S915)。
驱动基板13在从处理器基板12接收驱动写入请求后,将所接收的驱动写入请求登记到写入处理等待队列(S924)。
驱动基板13随时从写入处理等待队列读取驱动写入请求(S925),从高速缓冲存储器14读取对所读取的驱动写入请求指定的写入数据,并将所读取的写入数据写入到存储装置(存储驱动器171)中(S926)。然后,驱动基板13将表示针对驱动写入请求已完成写入数据的写入的报告(完成报告)通知到处理器基板12(S927)。
处理器基板12接收从驱动基板13传送来的完成报告(S928)。
图10是说明在存储器装置10从服务器装置3接收包含数据读取请求在内的帧的情况下,通过存储器装置10的I/O处理部811的读取处理部8112而进行的I/O处理(以下称作读取处理S1000)的流程图。以下,说明该图和读取处理S1000。
如该图所示,首先,通过存储器装置10的信道基板11接收从服务器装置3发送来的帧(S1011、S1012)。
信道基板11在从服务器装置3接收包含数据读取请求在内的帧后,将该情况通知到处理器基板12及驱动基板13(S1013)。
驱动基板13在从信道基板11接收上述通知后(S1014),从存储装置(存储驱动器171)读取对该帧含有的数据读取请求指定的数据(例如通过LBA(Logical Block Address)而指定)(S1015)。此外,在高速缓冲存储器14中存在读取数据的情况(高速缓存命中的情况)下,省略从存储装置17的读取处理(S1015)。
处理器基板12将由驱动基板13读取的数据写入到高速缓冲存储器14中(S1016)。然后,处理器基板12随时将写入高速缓冲存储器14中的数据发送到信道基板11(S1017)。
信道基板11在接收从处理器基板12随时传送来的读取数据后,将其依次发送到服务器装置3(S1018)。在完成读取数据的发送后,信道基板11向服务器装置3发送完成报告(S1019)。服务器装置3接收读取数据及完成报告(S1020、S1021)。
图11示出客户端装置2所具有的主要功能。如该图所示,客户端装置2具有应用程序211、文件系统212及内核/驱动器213的各功能。此外,这些功能通过客户端装置2的CPU21读取并执行存储于存储器22或存储装置23的程序而实现。
文件系统212对客户端装置2实现以文件单位或目录单位向逻辑卷(LU)的I/O功能。文件系统213例如为FAT(File Allocation Table)、NTFS、HFS(Hierarchical File System)、ext2(second extended filesystem)、ext3(third extended file system)、ext4(fourth extended filesystem)、UDF(Universal Disk Format)、HPFS(High Performance Filesystem)、JFS(Journaled File System)、UFS(Unix File System)、VTOC(Volume Table Of Contents)、XFS等。
内核/驱动器213通过执行构成操作系统的软件的内核模块或驱动模块而实现。在内核模块中包含如下程序,对于在客户端装置2中执行的软件,用于实现进程管理、进程调度、存储区域管理、来自硬件的中断请求的处理等操作系统所具有的基本功能。在驱动模块中包含用于使与构成客户端装置2的硬件或客户端装置2连接使用的周边设备和内核模块进行通信的程序等。
图12示出第1服务器装置3a所具有的主要功能及在第1服务器装置3a中管理的主要信息(数据)。如该图所示,在第1服务器装置3a中,实现了提供虚拟环境的虚拟化控制部305、以及在该虚拟化控制部305的控制下动作的一个以上的虚拟机310。
在各虚拟机310中,实现了文件共用处理部311、文件系统312、数据操作请求受理部313、数据复制/移动处理部314、文件访问日志获取部317、以及内核/驱动器318的各功能。
此外,虚拟环境可以通过使操作系统介于第1服务器装置3a的硬件与虚拟化控制部305之间的所谓的主机OS型、或不使操作系统介于第1服务器装置3a的硬件与虚拟化控制部305之间的管理程序(hypervisor)型的任一方式而实现。另外,数据操作请求受理部313、数据复制/移动处理部314、文件访问日志获取部317的各功能可以作为文件系统312的功能而实现,也可以作为独立于文件系统312的功能而实现。
如该图所示,各虚拟机310对复制信息管理表331、文件访问日志335等信息(数据)进行管理。这些信息随时从第1存储器10a读取至第1服务器装置3a并存储到第1服务器装置3a的存储器32或存储装置33。
该图所示的功能中的文件共用处理部311向客户端装置2提供文件的共用环境。文件共用处理部311提供例如遵从NFS(Network FileSystem)、CIFS(Common Internet File System)、AFS(Andrew FileSystem)等协议的功能。
文件系统312相对于客户端装置2提供对在由第1存储器装置10a提供的逻辑卷(LU)中管理的文件(或目录)的I/O功能。文件系统312例如为FAT(File Allocation Table)、NTFS、HFS(HierarchicalFile System)、ext2(second extended file system)、ext3(third extendedfile system)、ext4(fourth extended file system)、UDF(Universal DiskFormat)、HPFS(High Performance File system)、JFS(Journaled FileSystem)、UFS(Unix File System)、VTOC(Volume Table Of Contents)、XFS等。
数据操作请求受理部313受理从客户端装置2发送来的与数据的操作相关的请求(以下称作数据操作请求)。在数据操作请求中具有后述的复制开始请求、对复制文件的更新请求、对复制文件的参照请求、同步请求、对元数据的访问请求、对文件的实体的参照请求、调回(recall)请求、对存根化文件的实体的更新请求等。
此外,存根化是指,虽然关于文件(或目录)的数据的元数据保持在第1存储器装置10a中,但关于文件(或目录)的数据的实体没有管理于第1存储器装置10a侧,而仅保持在第2存储器装置10b中。在第1服务器装置3a受理了对存根化的文件(或目录)需要该文件(或目录)的实体那样的数据I/O请求的情况下,将该文件(或目录)的实体从第2存储器装置10b发送到第1存储器装置10a(写回(以下称作调回))。
数据复制/移动处理部314在后述的复制开始处理S2400、存根化候选选择处理S2500、同步处理S2900、存根化文件实体参照处理S3000、存根化文件实体更新处理S3100、虚拟机复原处理S3300、目录快照生成处理S3200、按需恢复处理S3300等中,进行第1服务器装置3a与第2服务器装置3b之间或第1存储器装置10a与第2存储器装置10b之间的控制信息(包含标记和表)的收发和数据(包含文件的元数据和实体)的传送、复制信息管理表331、元数据332等的各种表的管理。
图12所示的内核/驱动器318通过执行构成操作系统的软件的内核模块或驱动模块而实现。在内核模块中包含如下程序,对于在第1服务器装置3a中执行的软件,用于实现进程管理、进程调度、存储区域管理、来自硬件的中断请求的处理等操作系统所具有的基本功能。在驱动模块中包含用于使与构成第1服务器装置3a的硬件或第1服务器装置3a连接使用的周边设备和内核模块进行通信的程序。
图12所示的文件访问日志获取部317在向存储于存储器装置10的逻辑卷(LU)的文件进行访问(文件的更新(Write,Update)、文件的读取(Read)、文件的打开(Open)、文件的关闭(Close)等)后,对表示该访问内容(历史)的信息(以下称作访问日志)赋予基于从计时装置37获取的时间信息的时间戳(timestamp),并存储为文件访问日志335。
图13示出复制信息管理表331的一例。如该图所示,在复制信息管理表331中设定有:成为复制目的地的主机名3311(例如IP地址等网络地址)、用于判断是否存根化的阈值3312(后述的存根化阈值)。
图14示出文件访问日志335的一例。如该图所示,在文件访问日志335中记录有由访问时间3351、文件名3352及用户ID3353的各项目组成的、由一条以上的记录构成的访问日志。
其中,在访问时间3351中设定有对该文件(或目录)进行访问的时间。在文件名3352中设定有成为访问对象的文件(或目录)的文件名(或目录名)。在用户ID3353中设定有访问了该文件(或目录)的用户的用户ID。
图15示出第2服务器装置3b所具有的主要功能及在第2服务器装置3b中管理的主要信息(数据)。如该图所示,第2服务器装置3b具有文件共用处理部351、文件系统352、数据复制/移动处理部354、以及内核/驱动器358的各功能。此外,数据复制/移动处理部354的功能可以作为文件系统352的功能而实现,也可以作为独立于文件系统352的功能而实现。
另外,如该图所示,第2服务器装置3b对还原日志365及文件访问日志368进行管理。
文件共用处理部351对第1服务器装置3a提供文件的共用环境。文件共用处理部351使用例如HTTP协议而实现。
文件系统352使用由第2存储器装置10b提供的逻辑卷(LU),对第1服务器装置3a提供以文件单位或目录单位向逻辑卷(LU)的I/O功能。而且,文件系统352通过进行文件和目录的版本(version)管理,对第1服务器装置3a提供包含最新版本在内的过去某时刻的文件和目录。如后述那样,进行版本管理的文件系统在文件的生成或删除、文件的数据和/或元数据的变更、目录的生成或删除、以及向目录追加或删除条目时,不覆盖文件和/或目录地保持文件及/或目录。
文件系统352例如可以为ext3cow那样的一个文件系统,也可以像Wayback那样为与ext3、ReiserFS、FAT等现有文件系统的组合而成的文件系统。
数据复制/移动处理部354进行第1存储器装置10a与第2存储器装置10b之间的与数据的移动和复制相关的处理。
内核/驱动器358通过执行构成操作系统的软件的内核模块或驱动模块而实现。在内核模块中包含如下程序,对于在第2服务器装置3b中执行的软件,用于实现进程管理、进程调度、存储区域管理、来自硬件的中断请求的处理等操作系统所具有的基本功能。在驱动模块中包含用于使与构成第2服务器装置3b的硬件或第2服务器装置3b连接使用的周边设备和内核模块进行通信的程序。
图16示出还原日志365的一例。还原日志365在进行后述的目录快照的生成(将其称作还原)的情况下,通过第1服务器装置3a或第2服务器装置3b记录与恢复相关的处理的内容。如该图所示,还原日志365由具有时间3651、事件3652及还原对象文件3653的各项目的一条以上的记录构成。
其中,在时间3651设定有与还原相关的事件的执行时间。在事件3652中设定有表示所执行的事件的内容的信息(开始还原、执行还原等)。在还原对象文件3653中设定有用于特定成为还原对象的文件(或目录)的信息(路径名、文件名(或目录名)等)。
第2服务器装置3b所管理的文件访问日志368的内容与第1服务器装置3a中的文件访问日志335的内容基本一致。通过随时将文件访问日志335的内容从第1服务器装置3a通知到第2服务器装置3b,确保了两者的一致性。
接下来,详细说明第1服务器装置3a所具有的文件系统312。
图17是文件系统312在逻辑卷(LU)上管理的数据的构造(以下称作文件系统构造1700)的一例。如该图所示,在文件系统构造1700中包含超级块(super block)1711、节点(inode)管理表1712、存储有文件实体(数据)的数据块1713的各存储区域。
其中,在超级块1711中存储有与文件系统312相关的信息(文件系统所占用的存储区域的容量、使用量、空置容量等)。超级块1711原则上按磁盘区段(在逻辑卷(LU)上设定的分区)而设置。作为存储于超级块1711的上述信息的具体例,存在区段内的数据块数、块大小、空置块数、空置节点数、该区段的安装(mount)数、从最新的匹配性检查时间的经过时间等。
在节点管理表1712中,存储有在逻辑卷(LU)中存储的文件(或目录)的管理信息(以下称作节点)。文件系统312针对一个文件(或目录)使一个节点与之对应而进行管理。节点中的仅包含与目录相关的信息的条目称作目录条目。在对文件进行访问的情况下,参照目录条目对访问对象的文件的数据块进行访问。例如,在访问“/home/user-01/a.txt”这一文件的情况下,如图20所示,按照节点序号2→10→15→100的顺序沿着目录条目对访问对象文件的数据块进行访问。
图19示出普通文件系统(例如,UNIX(注册商标)类的操作系统所具有的文件系统)中的节点的概念。另外,图20示出节点管理表1712的一例。
如这些附图所示,在节点中包含以下信息:区分各个节点的作为标识符的节点序号2011、该文件(或目录)的所有者2012、对该文件(或目录)设定的访问权2013、该文件(或目录)的文件大小2014、该文件(或目录)的最终更新时间2015、在该节点为目录条目的情况下设定的该目录的母目录2016、在该节点为目录条目的情况下设定的该目录的子目录2017、用于特定收纳有该文件的数据实体的数据块的信息(以下称作块地址2018)等。
如图21所示,本实施方式的文件系统312在图20所示的通常的普通文件系统中的节点管理表1712的内容的基础上,还对存根化标记2111、元数据同步需要标记2112、实体同步需要标记2113、复制标记2114、读取专用标记2115、以及链接目的地2116进行管理。
此外,在通过基于复制的管理方式或基于存根化的管理方式使存储于第1存储器装置10a的文件的元数据(包含图21所示的各种标记)的复制也存储于第2存储器装置10b的情况(被复制的情况)下,若通过后述的同步处理S2900而一方装置的元数据被更新,则将该情况也通知到另一方装置。由此,能够大致实时地确保第1存储器装置10a的元数据和第2存储器装置10b的元数据的内容的一致性。
在该图中,在存根化标记2111中设定有表示与该节点对应的文件(或目录)是否被存根化的信息。在此,存根化是指,在将文件(或目录)从第1存储器装置10a移动(迁移)到第2存储器装置10b时,仅将该文件的数据中的实体从移动源的第1存储器装置10a删除,对于该文件的数据中的元数据,不删除地留存在移动源的第1存储器装置10a中。
此外,存根(stub)是指在该情况下残留于第1存储器装置10a的元数据。在与该节点对应的文件(或目录)被存根化的情况下,对存根化标记2111设定ON,在没有被存根化的情况下对存根化标记2111设定OFF。
在元数据同步需要标记2112中设定有表示是否具有在复制源的第1存储器装置10a的文件(或目录)的元数据与复制目的地的第2存储器装置10b的文件(或目录)的元数据之间取得同步的需要(使内容一致的需要)的信息。在需要取得元数据的同步的情况下对元数据同步需要标记2112设定ON,在不需要取得同步的情况下对元数据同步需要标记2112设定OFF。
在实体同步需要标记2113中设定有表示是否具有在复制源的第1存储器装置10a的文件的数据实体与复制目的地的第2存储器装置10b的文件的数据实体之间取得同步的需要(使内容一致的需要)的信息。在对于文件的数据实体需要取得同步的情况下对实体同步需要标记2113设定ON,在不需要取得同步的情况下对实体同步需要标记2113设定OFF。
元数据同步需要标记2112及实体同步需要标记2113在后述的同步处理S2900中随时被参照。在元数据同步需要标记2112或实体同步需要标记2113为ON的情况下,第1存储器装置10a的元数据或实体、和作为其复制的第2存储器装置10b的元数据或实体自动同步。
在复制标记2114中设定有表示与该节点对应的文件(或目录)是否为基于后述的复制管理方式的当前管理对象的信息。在与该节点对应的文件为基于复制管理方式的当前管理对象的情况下,对复制标记2114设定ON,在不为基于复制的管理对象的情况下,对复制标记2114设定OFF。
读取专用标记2115设定有表示与该节点对应的文件(或目录)是否能够通过客户端装置2写入的信息。在与该节点对应的文件(或目录)无法写入的情况下对读取专用标记2115设定ON,在能够写入的情况下对读取专用标记2115设定OFF。
此外,客户端装置2以外的主体,例如文件系统312和数据复制/移动处理部314能够向对读取专用标记2115设定ON的文件写入。
此外,读取专用标记2115的设定与访问权2013的设定相互独立。例如,客户端装置2无法向对读取专用标记2115设定ON且访问权2013能够写入地设定的文件写入。由此,能够防止将针对文件的ACL或UNIX权限等公知的访问权2013的视图(view)直接写入。
在链接目的地2116中,在与该节点对应的文件以后述的复制管理方式管理的情况下,设定有表示该文件的复制目的地的信息(例如,特定存储目的地的路径名(包含后述的版本ID)、RAID组的标识符、块地址、URL(Uniform Resource Locator)、LU等)。
接下来,详细说明第2服务器装置3b所具有的文件系统352。文件系统352在第1服务器装置3a所具有的文件系统312的基础上,还具有用于管理、操作文件(或目录)的版本所需要的版本管理表221。
图22示出版本管理表221的一例。文件系统352对每一个文件(或目录)维持一个版本管理表221。此外,将文件及目录总称为文件系统对象。
如该图所示,在版本管理表221中记录有由存储时间2211及版本ID2212的各项目组成的由一条以上的记录构成的条目。在存储时间2211中设定有该文件(或目录)存储于文件系统352的时间。在版本ID2212中设定有用于对该文件(或目录)的特定版本进行访问而需要的名称。在版本ID2212中设定的名称例如为连续的数字或随机生成的具有一定长度的字符串(一般称作UUID)。版本ID2212可以由用户(例如客户端装置2或第1服务器装置3a)设定,也可以由系统(例如文件系统352)设定。
文件系统352在第一次生成文件(或目录)时生成版本管理表221,文件系统352在删除文件(或目录)的全部版本后删除版本管理表221。此外,文件系统352进行文件的陈旧版本的删除。例如,文件系统352设定过去版本保持天数,并删除从生成之后经过了上述过去版本保持天数的文件的版本。通过该删除,防止文件系统352的容量由于过去版本而占满。
用户通过相对于文件系统352对特定路径名发出参照请求,能够获取存储于文件系统352的文件(或目录)的版本信息。在此,版本信息是存储于版本管理表221的全部条目。例如,用户能够通过向“/home/user01/a.txt?version=list”的参照请求而获取以“/home/user01/a.txt”表示的路径名的文件的版本信息。
用户通过相对于文件系统352在路径名中增加版本ID2212而发出参照请求,能够读入存储于文件系统352的文件(或目录)的特定版本。例如,用户能够通过向“/home/user01/a.txt?version=v2”的参照请求而获取以“/home/user01/a.txt”表示的路径名的文件的以“v2”表示的版本。
用户通过对文件系统352的路径名进行文件(或目录)的更新请求,能够存储新的文件(或目录)。例如,用户在对以“/home/user01/a.txt」”表示的路径名进行文件的更新请求后,文件系统352进行当前时刻的获取和版本ID2212的生成。接着,文件系统352在版本管理表221中生成新的条目,然后重新存储与条目建立关联的文件。此时,不对以前的文件进行覆盖。
图23示出目录快照管理表231的一例。第1服务器装置3a上的文件系统312为了管理进行文件恢复的目录,将其存储并维持于第1存储器装置10a中。
如该图所示,在目录快照管理表231中存储有目录2311、恢复时间2312及删除时间2313。
其中,在目录2311中设定有文件系统312上的恢复目录快照的目的地的目录。在恢复时间2312中设定有恢复的目录快照的时间。在删除时间2313中设定有恢复的目的地的目录从文件系统312上删除的时间。恢复时间2312及删除时间2313可以由用户设定,也可以由文件系统312设定。例如,“/mnt/fs01/.histroy/09_05/2010/9/500:00:002010/10/500:00:00”的条目表示,在文件系统312上以/mnt/fs01/.history/09_05/表示的目录中,在2010/9/500:00:00的时间恢复存在于文件系统312上的文件(或目录),而且在2010/10/500:00:00从文件系统312删除。如下所述,恢复的是目录的层级构造中的最上位目录(根目录)的下一层级目录或文件的元数据。其为一例,而且,也可以恢复至下属的目录或文件,另外,还可以直接恢复规定层级的目录或文件。
=概略动作=
接下来,说明由以上结构组成的信息处理系统1的动作。
图24是在第1服务器装置3a受理表示开始以存储于存储器装置10a的文件为对象的复制的请求(以下称作复制开始请求)的情况下,在信息处理系统1中进行的处理(以下称作复制开始处理S2400)的说明图。
第1服务器装置3a在从客户端装置2受理复制开始请求后,针对指定为该请求的对象的文件通过基于复制的管理方式开始管理。此外,第1服务器装置3a除经由通信网络5从客户端装置2受理复制开始请求以外,例如,也受理在该第1服务器装置3a中于内部产生的复制开始请求。
在此,基于复制的管理方式是指,在第1存储器装置10a及第2存储器装置10b双方中管理文件的数据(元数据及实体)的方式。
在基于复制的管理方式中,在更新存储于第1存储器装置10a的文件的实体或元数据后,作为该文件的复制(或归档文件)而管理的、第2存储器装置10b侧的文件的元数据或实体被同步或非同步地更新。通过进行基于复制的管理方式,能够同步或非同步地确保(保证)存储于第1存储器装置10a的文件的数据(元数据或实体)和作为其复制而存储于第2存储器装置10b的文件的数据(元数据或实体)的一致性。
此外,第2存储器装置10b侧的文件(归档文件)中的元数据也可以作为文件的实体而管理。由此,即使在第1服务器装置3a的文件系统312和第2服务器装置3b的文件系统352的规格不同的情况下,也能够实现基于复制的管理方式。
如该图所示,在受理复制开始请求后(S2411),第1服务器装置3a从第1存储器装置10a读取对所受理的复制开始请求指定的文件的数据(元数据及实体),并将所读取的文件的数据发送到第2服务器装置3b(S2412)。
第2服务器3b在接收从第1服务器装置3a传送来的上述文件的数据后,将所接收的数据存储到第2存储器装置10b(S2413)。
此外,在进行上述传送时,第1服务器装置3a的数据复制/移动处理部314将传送源文件的复制标记2114设定成ON(S2414)。
图25是在将存储于第1存储器装置10a的通过复制管理方式而管理的文件(复制标记2114设定成ON的文件。以下称作复制文件)设定成上述的存根化的候选时,在信息处理系统1中进行的处理(以下称作存根化候选选择处理S2500)的说明图。以下,说明该图和存根化候选选择处理S2500。
第1服务器装置3a随时(实时地、定期地、以预先设定的定时等)监视着文件存储区域的剩余容量。
当相对于文件系统312分配为文件的存储区域的第1存储器装置10a的存储区域(以下称作文件存储区域)的剩余容量不足预先设定的阈值(以下称作存根化阈值)时,第1服务器装置3a按照规定的选择基准,从存储于第1存储器装置10a的复制文件中选择存根化的候选(S2511)。此外,作为上述规定的选择基准,存在例如最终更新时间的新旧顺序、访问频度的高低顺序等。
接下来,第1服务器装置3a在选择出存根化的候选后,将所选择的复制文件的存根化标记2111设定成ON,将复制标记2114设定成OFF,将元数据同步需要标记2112设定成ON(S2512)。此外,第1服务器装置3a从例如文件系统312所管理的信息获取文件存储区域的剩余容量。
图26是在将通过存根化候选选择处理S2500而选择为存根化候选的文件实际存根化时,在信息处理系统1中进行的处理(以下称作存根化处理S2600)的说明图。存根化处理S2600例如以预先设定的定时(例如继进行存根化候选选择处理S2500之后)进行。以下,说明该图和存根化处理S2600。
如该图所示,第1服务器装置3a从存储于第1存储器装置10a的文件存储区域的文件中,提取出一个以上作为存根化候选而选择的文件(存根化标记2111设定成ON的文件)(S2611)。
然后,第1服务器装置3a从第1存储器装置10a删除所提取出的文件的实体,并且,根据所提取出的文件的元数据对表示该文件的第1存储器装置10a的存储目的地的信息设定无效值(例如,在元数据的用于设定该文件的存储目的地的栏(例如设定块地址2018的栏)中设定NULL值或零),将作为存根化候选而选择的文件实际存根化。另外,此时第1服务器装置3a将元数据同步需要标记2112设定成ON(S2612)。
图27是在第1服务器装置3a从客户端装置2受理对存储于第1存储器装置10a的文件存储区域的复制文件的更新请求的情况下,在信息处理系统1中进行的处理(以下称作复制文件更新处理S2700)的说明图。以下,说明该图和复制文件更新处理S2700。
第1服务器装置3a在受理对复制文件的更新请求后(S2711),按照所受理的更新请求更新存储于该第1存储器装置10a的该复制文件的数据(元数据、实体)(S2712)。
然后,第1服务器装置3a在更新了元数据的情况下将该复制文件的元数据同步需要标记2112设定成ON,在更新了复制文件的实体的情况下将该复制文件的实体同步需要标记2113设定成ON(S2713)。
图28是在第1服务器装置3a的文件系统312从客户端装置2受理对存储于第1存储器装置10a的文件存储区域的复制文件的参照请求的情况下,在信息处理系统1中进行的处理(以下称作复制文件参照处理S2800)的说明图。以下,说明该图和复制文件参照处理S2800。
第1服务器装置3a的文件系统312在受理对复制文件的更新请求后(S2811),从第1存储器装置10a读取该复制文件的数据(元数据或实体)(S2812),根据所读取的数据生成对客户端装置2响应的信息,并将生成的响应信息发送到客户端装置2(S2813)。
图29是在第1服务器装置3a的文件系统312从客户端装置2等受理对存根化的文件(存根化标记2111设定成ON的文件)的元数据的访问请求(参照请求或更新请求)的情况下,在信息处理系统1中进行的处理(以下称作元数据访问处理S2900)的说明图。以下,说明该图和元数据访问处理S2900。
如该图所示,第1服务器装置3a在受理对存根化的文件的元数据的访问请求后(S2911),获取成为访问请求对象的第1存储器装置10a的元数据,并按照访问请求的内容进行参照(基于所读取的元数据的响应信息向客户端装置2的发送)或元数据的更新(S2912)。另外,在更新了元数据的内容的情况下,将该文件的元数据同步需要标记2112设定成ON(S2913)。
像这样,第1服务器装置3a在发生对存根化的文件的访问请求且该访问请求仅以该文件的元数据为对象的情况下,使用存储于第1存储器装置10a的元数据来处理访问请求。因此,在访问请求仅以该文件的元数据为对象的情况下,能够迅速地向客户端装置2回复响应。
图30是在第1服务器装置3a从客户端装置2受理对存根化的文件(存根化标记2111设定成ON的文件。以下称作存根化文件)的实体的参照请求的情况下,在信息处理系统1中进行的处理(以下称作存根化文件实体参照处理S3000)的说明图。以下,说明该图和存根化文件实体参照处理S3000。
第1服务器装置3a在从客户端装置2受理对存根化文件的实体的参照请求后(S3011),参照所获取的元数据判断该存根化文件的实体是否存储于第1存储器装置10a(S3012)。在此,该判断例如根据是否在所获取的元数据中对表示存根化文件的实体的存储目的地的信息(例如块地址2018)设定有效值而进行。
关于上述判断的结果,在存根化文件的实体存储于第1存储器装置10a的情况下,第1服务器装置3a从第1存储器装置10a读取该存根化文件的实体,根据所读取的实体生成向客户端装置2响应的信息,并将生成的响应信息发送到客户端装置2(S3013)。
另一方面,关于上述判断的结果,在存根化文件的实体没有存储于第1存储器装置10a的情况下,第1服务器装置3a对第2服务器装置3b请求提供存根化文件的实体(以下称作调回请求)(S3014)。此外,实体的获取请求不必是通过一次获取请求而获取实体整体的请求,例如也可以仅对实体的一部分进行多次请求。
第1服务器装置3a在根据上述获取请求接收从第2服务器装置3b传送来的存根化文件的实体后(S3015),根据所接收的实体而生成响应信息,并将生成的响应信息发送到客户端装置2(S3016)。
另外,第1服务器装置3a将从上述第2服务器装置3b接收的实体存储到第1存储器装置10a中,在该存根化文件的元数据的表示该文件的实体的存储目的地的信息(例如块地址2018)中,设定表示该文件在第1存储器装置10a中的存储目的地的内容。另外,第1服务器装置3a将该文件的存根化标记2111设定成OFF,将复制标记2114设定成ON,将元数据同步需要标记2112设定成ON(将该文件从存根化文件变更为复制文件)(S3017)。
此外,将元数据同步需要标记2112设定成ON的原因在于,在第1存储器装置10a与第2存储器装置10b之间,事后使该存根化文件的存根化标记2111及复制标记2114的内容自动同步。
图31是在第1服务器装置3a从客户端装置2受理了对存根化文件的实体的更新请求的情况下,在信息处理系统1中进行的处理(以下称作存根化文件实体更新处理S3100)的说明图。以下,说明该图和存根化文件实体更新处理S3100。
第1服务器装置3a在受理对存根化文件的实体的更新请求后(S3111),获取成为更新请求对象的存根化文件的元数据,并根据所获取的元数据判断该存根化文件的实体是否存储于第1存储器装置10a(S3112)。此外,判断方法与存根化文件实体参照处理S3000的情况相同。
关于上述判断的结果,在存根化文件的实体存储于第1存储器装置10a的情况下,第1服务器装置3a按照更新请求的内容更新存储于第1存储器装置10a的该存根化文件的实体,并且将该存根化文件的实体同步需要标记2113设定成ON(S3113)。
另一方面,在存根化文件的实体没有存储于第1存储器装置10a的情况下,第1服务器装置3a向第2服务器装置3b发送该存根化文件的实体的获取请求(调回请求)(S3114)。
第1服务器装置3a在根据上述请求接收从第2服务器装置3b传送来的文件的实体后(S3115),根据更新请求的内容更新所接收的实体的内容,并将更新后的实体作为该存根化文件的实体而存储到第1存储器装置10a中。另外,第1服务器装置3a将该存根化文件的存根化标记2111设定成OFF,将复制标记2114设定成OFF,将元数据同步需要标记2112设定成ON(S3116)。
<文件恢复时的处理>
图32是过去某时刻的目录快照的生成处理(以下称作目录快照生成处理S3200)的说明图。以下,说明该图和目录快照生成处理S3200。
首先,第1服务器装置3a的文件系统312将过去某时刻构成于第1存储器装置10a的目录的结构(也就是说,存储于第2存储器装置10b的目录的结构,包括表示目录的层级构造的数据、目录的数据(元数据)、以及文件的数据(元数据及实体)。以下称作目录快照)中的、存在于最上位目录(以下,称作根目录)的目录的元数据、以及存在于根目录的文件的元数据的获取请求发送到第2服务器装置3b(S3211)。
在本实施方式中,关于存在于根目录的目录的元数据及存在于根目录的文件的元数据的情况,包括存在于根目录(从根目录看到)的目录及文件,但不包括存在于在根目录中存在的目录的更之下的目录和存在于该目录的文件。
第2服务器装置3b在接收上述获取请求后,从第2存储器装置10b获取存在于所请求的根目录的目录的元数据及存在于根目录的文件的元数据(S3212),并将所获取的元数据发送到第1存储器装置10a(S3213)。
第1服务器装置3a在从第2服务器装置3b接收元数据后(S3213),将基于所接收的元数据的目录快照恢复至第1存储器装置10a(S3214)。另外,此时,第1服务器装置3a将元数据同步需要标记2112设定成ON,将实体同步需要标记2113设定成ON,将读取专用标记2115设定成ON。此外,由于恢复的文件均仅基于元数据,所以这些文件均为存根化的状态,存根化标记2111设定成ON。
像这样,第1服务器装置3a在第1存储器装置10a中恢复目录快照。第1服务器装置3a的文件系统312,例如,如图23所示,定期地获取目录快照,并通过目录管理表对其持续管理。此外,作为获取目录快照的方式,能够适当变更,也可以在第1服务器装置3a每次发生规定事件的定时获取目录快照。例如,在客户端装置向第1服务器3a查询文件历史的时刻。该情况下,客户端能够访问该文件的过去版本,并获取过去版本所属的目录快照。
图33是在图32所示的目录快照生成处理S3200之后,逐渐恢复在过去某时刻该第1服务器装置3a所管理的目录快照的处理(以下称作按需恢复处理S3300)的说明图。以下,说明该图和按需恢复处理S3300。
第1服务器装置3a在开始服务后,当从客户端装置2受理对某文件数据I/O请求时(S3311),调查成为所受理的数据I/O请求的对象的文件(以下称作访问对象文件)的元数据是否存在于第1存储器装置10a(开始服务后,元数据是否既已恢复至第1存储器装置10a)(S3312)。
在元数据恢复至第1存储器装置10a的情况下,第1服务器装置3a根据所受理的数据I/O请求的对象(元数据或实体)、数据I/O请求的种类(参照请求或更新请求)、是否以基于复制的管理方式进行管理(复制标记2114是否为ON)、是否存根化(存根化标记是否为ON),进行与所受理的数据I/O请求对应的处理(上述的复制文件更新处理S2700、复制文件参照处理S2800、元数据访问处理S2900、存根化文件实体参照处理S3000、存根化文件实体更新处理S3100),并向客户端装置2回复响应(S3318)。
另一方面,在访问对象文件的元数据没有恢复的情况下,第1服务器装置3a从第2服务器装置3b(第2存储器装置10b)获取用于恢复以根目录为起点至访问对象文件所存在的目录级别(目录层级)的目录快照的数据(S3313~S3315),并使用所获取的数据将从根目录至上述目录级别的目录快照恢复至第1存储器装置10a(S3316)。
另外,第1服务器装置3a将访问对象文件的存根化标记2111设定成ON,将复制标记2114设定成OFF,将元数据同步需要标记2112设定成ON,将读入专用标记2115设定成ON(S3317)。
接下来,第1服务器装置3a根据所受理的数据I/O请求的对象和种类、管理方式、有无存根化等,进行与所受理的数据I/O请求对应的处理,并向客户端装置2回复响应(S3318)。
图34示出由于重复地发生数据I/O请求而通过以上说明的按需恢复处理S3300分步地将目录快照恢复至第1存储器装置10a的状况。
该图中,关于以强调的字符串(标注有下划线的字符串)表示的目录,该目录的元数据已恢复但其之下的目录的元数据尚未恢复。另外,关于以没有强调的字符表示的目录,该目录之下的目录的元数据也既已恢复。另外,关于以强调的字符表示的文件,该文件的元数据已恢复但其实体尚未恢复。另外,关于以没有强调的字符表示的文件,该文件的实体既已恢复。
图34的图(0)是过去某时刻在第1服务器装置3a(第1存储器装置10a)中管理且已复制到第2服务器装置3b的目录快照(最终恢复的目录快照整体)。
图34的图(A)是紧接目录快照生成处理S3200之后(第1服务器装置3a尚未受理数据I/O请求的状态)的目录快照。在该阶段,存在于根目录“/”下一层级的目录“/dir1”及“/dir2”的元数据已恢复,但关于其更之下的目录的元数据尚未恢复。另外,存在于根目录“/”下一层级的文件“a.txt”的元数据已恢复,但关于实体尚未恢复。
图34的图(B)是以图(A)的状态从客户端装置2受理对存在于目录“/dir1”之下的文件“c.txt”的数据I/O请求后的状态。由于从客户端装置2受理了对文件“c.txt”的数据I/O请求,所以恢复了目录“/dir11”的元数据和“/c.txt”的元数据。
图34的图(C)是以图(B)的状态进一步从客户端装置2受理对存在于目录“/dir2”之下的文件“b.txt”的数据I/O请求后的状态。如该图所示,由于从客户端装置2受理了对文件“b.txt”的数据I/O请求,所以恢复了“/b.txt”的元数据。此外,由于存在于“/dir2”之下的“/b.txt”的元数据已恢复,所以以没有强调的字符记述“/dir2”。
图34的图(D)是以图(C)的状态从客户端装置2受理对文件“b.txt”的数据I/O请求(更新请求)后的状态。由于从客户端装置2受理了对文件“b.txt”的数据I/O请求(更新请求),所以恢复了文件“b.txt”的实体。
图35是过去某时刻的目录快照的删除处理(以下称作目录快照删除处理S3500)的说明图。以下,说明该图和目录快照删除处理S3500。
首先,第1服务器装置3监视文件系统312在过去某时刻构成于第1存储器装置10a的目录的保存是否超过了在文件系统312中设定的时间(S3511)。在上述目录的保存超过了上述时间的情况,文件系统312删除上述目录(S3512)。
如以上说明那样,在本实施方式的信息处理系统1中,在第1服务器装置3a中实施目录快照生成处理后,在受理数据I/O请求之前,通过目录快照生成处理S3200仅恢复存在于根目录的目录的元数据及存在于根目录的文件的元数据。然后,在每次相对于第1服务器装置3a发生对尚未从客户端装置2恢复的文件的数据I/O请求时,分步地将目录快照恢复至第1服务器装置3a(第1存储器装置10a)。
像这样,为了恢复文件,不是在开始受理数据I/O请求之前恢复目录快照整体,而是分步地恢复对数据I/O请求进行处理所需要的目录快照,由此,与为了恢复文件而预先恢复目录快照整体的情况相比,能够缩短文件恢复所需要的时间,能够防止对用户的业务等的影响。
另外,在至目录快照完全恢复的期间,能够节约第1存储器装置10a的资源。而且在至目录快照完全恢复的期间能够抑制存储容量的占用。
<详细处理>
接下来,说明在信息处理系统1中进行的处理的详细情况。
图36是说明图24所示的复制开始处理S2400的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a实时地监视是否从客户端装置2等受理了复制开始请求(S3611)。第1服务器装置3a在从客户端装置2等受理复制开始请求后(S3611:是)(图24的S2411),向第2服务器装置3b查询对所受理的复制开始请求指定的文件的数据(元数据及实体)的存储目的地(RAID组的标识符、块地址等)(S3612)。
当存在上述查询时(S3621),第2服务器装置3b搜索第2存储器装置10b的空置区域而确定文件的数据的存储目的地,并将所确定的存储目的地通知到第1服务器装置3a(S3622)。
第1服务器装置3a在接收上述通知后(S3613),从第1存储器装置10a读取对所受理的复制开始请求指定的文件的数据(元数据及实体)(S3614)(图24的S2412),并将所读取的文件的数据与在S3622中通知的存储目的地一起发送到第2服务器装置3b(S3615)(图24的S2413)。
另外,第1服务器装置3a将该文件的元数据(存储于第1存储器装置10a的该文件的元数据)的复制标记2114设定成ON,将元数据同步需要标记2112设定成ON(S3616)(图24的S2414)。
此外,通过将元数据同步需要标记2112预先设定成ON,能够通过上述的同步处理S2900同步或非同步地确保(保证)存储于第1存储器装置10a的文件的元数据、与作为其复制而存储于第2存储器装置10b的文件的元数据的一致性。
另一方面,第2服务器装置3b在从第1服务器装置3a接收文件的数据后(S3623),将所接收的文件的数据与该文件一起,存储到以所接收的存储目的地特定的第2存储器装置10b的位置(S3624)。
图37是说明图25所示的存根化候选选择处理S2500的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a随时监视文件存储区域的剩余容量是否不足存根化阈值(S3711、S3712),当检测到文件存储区域的剩余容量不足存根化阈值时,按照上述规定的选择基准从存储于第1存储器装置10a的复制文件中选择存根化的候选(S3712)(图25的S2511)。
然后,第1服务器装置3a在选择出存根化的候选后(S3713),将所选择的复制文件的存根化标记2111设定成ON,将复制标记2114设定成OFF,将元数据同步需要标记2112设定成ON(S3714)(图25的S2512)。
图38是说明图26所示的存根化处理S2600的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a随时提取出从存储于第1存储器装置10a的文件存储区域的文件中作为存根化候选而选出的文件(存根化标记2111设定成ON的文件)(S3811、S3812)。
然后,第1服务器装置3a从第1存储器装置10a删除所提取出的文件的实体(S3813),并且,根据所提取出的文件的元数据在表示该文件的第1存储器装置10a的存储目的地的信息中设定无效值(例如,在元数据的用于设定该文件的存储目的地的栏(例如块地址2018)中设定NULL值或零)(S3814),并将元数据同步需要标记2112设定成ON(S3815)(图26的S2611)。
图39是说明图27所示的复制文件更新处理S2700的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a实时地监视是否从客户端装置2受理了对复制文件的更新请求(S3911)。第1服务器装置3a在受理更新请求后(S3911:是)(图27的S2711),按照所受理的更新请求更新存储于第1存储器装置10a的成为该更新请求的对象的复制文件的数据(元数据或实体)(S3912)(图27的S2712)。
另外,第1服务器装置3a在更新了元数据的情况下将该复制文件的元数据同步需要标记2112设定成ON(S3913),在更新了复制文件的实体的情况下将该复制文件的实体同步需要标记2113设定成ON(S3914)(图27的S2713)。
图40是说明图28所示的复制文件参照处理S2800的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a实时地监视是否从客户端装置2受理了对复制文件的参照请求(S4011)。第1服务器装置3a在受理参照请求后(S4011:是)(图28的S2811),从第1存储器装置10a读取该复制文件的数据(元数据或实体)(S4012)(图28的S2812),根据所读取的数据生成对客户端装置2响应的信息,并将生成的响应信息发送到客户端装置2(S4013)(图28的S2813)。
图41是说明图29所示的元数据访问处理S2900的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a实时地监视是否从客户端装置2受理了对存根化的文件的元数据的访问请求(参照请求或更新请求)(S4111)。
第1服务器装置3a在受理对存根化的文件的元数据的访问请求后(S4111:是)(图29的S2911),获取成为所受理的访问请求的对象的第1存储器装置10a的元数据(S4112),按照所受理的访问请求(S4113)进行元数据的参照(基于所读取的元数据的响应信息向客户端装置2的发送)(S1514)或元数据的更新(S4115)(图29的S2912)。另外,在更新了元数据的内容的情况下(S4115),将该文件的元数据同步需要标记2112设定成ON(图29的S2913)。
图42是说明图30所示的存根化文件实体参照处理S3000的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a在从客户端装置2受理对存根化文件的实体的参照请求后(S4211:是)(图30的S3011),判断该存根化文件的实体是否存储于第1存储器装置10a(S4212)(图30的S3012)。
在存根化文件的实体存储于第1存储器装置10a的情况下(S4212:是),第1服务器装置3a从第1存储器装置10a读取该存根化文件的实体,根据所读取的实体而生成对客户端装置2响应的信息,并将生成的响应信息发送到客户端装置2(S4213)(图30的S3013)。
另一方面,在存根化文件的实体没有存储于第1存储器装置10a的情况下(S4212:否),第1服务器装置3a对第2服务器装置3b请求存根化文件的实体(调回请求)(S4214)(图30的S3014)。此时,第1服务器装置3a使用存根化文件的元数据含有的链接目的地2116来请求第2服务器装置3b的文件的特定版本。
第1服务器装置3a在根据上述获取请求受理从第2服务器装置3b传送来的存根化文件的实体后(S4221、S4222、S4215)(图30的S3015),根据所接收的实体而生成响应信息,并将生成的响应信息发送到客户端装置2(S4216)(图30的S3016)。
另外,第1服务器装置3a将从上述第2服务器装置3b接收的实体存储到第1存储器装置10a,并在该存根化文件的元数据的表示该文件的实体的存储目的地的信息(例如块地址2018)中,设定表示该文件在第1存储器装置10a中的存储目的地的内容(S4217)。
另外,第1服务器装置3a将该文件的存根化标记2111设定成OFF,将复制标记2114设定成ON,将元数据同步需要标记2112设定成ON(S4218)(图30的S3017)。
图43是说明图31所示的存根化文件实体更新处理S3100的详细情况的流程图。以下,与该图一起进行说明。
第1服务器装置3a在从客户端装置2受理对存根化文件的实体的更新请求后(S4311:是)(图31的S3111),判断该存根化文件的实体是否存储于第1存储器装置10a(S4312)(图31的S3112)。
在存根化文件的实体存储于第1存储器装置10a的情况下(S4312:是),第1服务器装置3a按照更新请求的内容更新存储于第1存储器装置10a的该存根化文件的实体(S4313),并且,将该存根化文件的实体同步需要标记2113设定成ON(S4314)(图31的S3113)。
另一方面,关于上述判断的结果,在存根化文件的实体没有存储于第1存储器装置10a的情况下(S4312:否),第1服务器装置3a向第2服务器装置3b发送该存根化文件的实体的获取请求(调回请求)(S4315)(图31的S3114)。
第1服务器装置3a在根据上述请求接收从第2服务器装置3b传送来的文件的实体后(S4321、S4322、S4316)(S3115),按照更新请求的内容更新所接收的实体的内容(S4317),并将更新后的实体作为该存根化文件的实体而存储到第1存储器装置10a(S4318)(图31的S3116)。
另外,第1服务器装置3a将该存根化文件的存根化标记2111设定成OFF,将复制标记2114设定成OFF,将元数据同步需要标记2112设定成ON(S4319)。
图44是说明图32所示的目录快照生成处理S3200的详细情况的流程图。以下,与该图一起进行说明。
首先,第1服务器装置3a生成过去某时刻的目录快照的恢复目的地的目录(S4411)。第1服务器装置3a分别在目录2311、恢复时间2312、删除时间2313中设定所生成的目录的路径、当前时间、对当前时间增加目录快照保持天数而成的时间,由此,在目录快照管理表231中生成新的条目。在此,目录快照保持天数是设定在文件系统312中的、从生成恢复目的地目录开始至删除的天数。
接下来,第1服务器装置3a以如下方式相对于第2服务器装置3b获取文件系统312的恢复时间2312的目录快照的存在于根目录的目录的元数据及存在于根目录的文件的元数据。
(1)第1服务器装置3a对第2服务器装置3b请求根目录的版本信息(S4412)。
(2)第2服务器装置3b在接收上述获取请求后(S4421),从第2存储器装置10b获取所请求的根目录的版本信息,并将所获取的版本信息发送到第1服务器装置3a(S4422)。
(3)第1服务器装置3a在从第2服务器装置3b接收版本信息后(S4413),从根目录的版本信息(版本管理表221)检索没有超过恢复时间2312的且最近的存储时间2211,并获取与检索到的存储时间对应的版本ID2212(S4414)。
(4)第1服务器装置3a对第2服务器装置3b发送存在于具有所获取的版本ID2212的根目录的目录的元数据、以及存在于根目录的文件的元数据的获取请求(S4415)(图32的S3211)。
(5)第2服务器装置3b在接收上述获取请求后(S4423),获取所请求的根目录的元数据,并对该目录条目进行与S4412~S4414相同的处理,由此,从第2存储器装置10b获取存在于想要恢复的版本的根目录的目录的元数据、以及存在于想要恢复的版本的根目录的文件的元数据,并将所获取的元数据发送到第1存储器装置10a(S4424)(图32的S3212、S3213)。
接下来,第1服务器装置3a在从第2服务器装置3b接收元数据后(S4416)(图32的S3213),将按照所接收的元数据的目录快照构成(恢复)于第1存储器装置10a(S4417)(图32的S3214)。另外,此时,第1服务器装置3a将元数据同步需要标记2112设定成ON,将实体同步需要标记2113设定成ON,将读入专用标记设定成ON(S4418)。
图45及图46是说明图33所示的按需恢复处理S3300的详细情况的流程图。以下,与该图一起进行说明。
首先,用户在经由客户端装置2向第1服务器装置3a请求文件恢复时,对恢复目的地目录2311中的所期望的恢复目的地目录进行访问。接着,第1服务器装置3a在从客户端装置2接收对成为文件恢复对象的规定恢复对象文件的数据I/O请求后(S4511:是)(图33的S3311),调查成为所受理的数据I/O请求的对象的文件(访问对象文件)的元数据是否存在于在第1存储器装置10a中构成的上述恢复目的地目录之下(S4512)(图33的S3312)。
而且,在元数据恢复至第1存储器装置10a的情况下(S4512:是),第1服务器装置3a根据所受理的数据I/O请求的对象和种类、管理方式、有无存根化等,进行与所受理的数据I/O请求对应的处理,并向客户端装置2回复响应(S4513)(图33的S3318)。
另一方面,在访问对象文件的元数据没有恢复至第1存储器装置10a的情况下(S4512:否),第1服务器装置3a为了恢复以根目录为起点至访问对象文件所存在的目录级别的目录快照而调出母目录恢复处理(S4514)。
接下来,第1服务器装置3a以如下方式相对于第2服务器装置3b进行文件系统312的恢复时间2312的文件系统的、以根目录为起点至访问对象文件所存在的目录级别(目录层级)的目录快照的恢复(参照图46)。
(1)第1服务器装置3a相对于第2服务器装置3b,根据上述数据I/O请求中的路径信息,请求没有恢复至第1存储器装置10a的目录中的、位于所述根目录的下一层级即最浅目录级别的目录的版本信息(S4611)。
(2)第2服务器装置3b在接收上述获取请求后(S4621),从第2存储器装置10b获取所请求的最浅目录的版本信息,并将所获取的版本信息发送到第1服务器装置3a(S4622)。
(3)第1服务器装置3a在从第2服务器装置3b接收版本信息后(S4612),从想要恢复的目录的版本信息(版本管理表221)检索没有超过恢复时间2312的且最近的存储时间2211,并获取与检索到的存储时间对应的版本ID2212(S4613)。
(4)第1服务器装置3a相对于第2服务器装置3b,将存在于具有所获取的版本ID2212的根目录的目录的元数据、以及存在于根目录的文件的元数据的获取请求发送到第2服务器装置3b(S4614)(图33的S3313)。
(5)第2服务器装置3b在接收上述获取请求后(S4623),获取所请求的目录的元数据,并对该目录条目进行与S4611~S4616相同的处理,由此,从第2存储器装置10b获取存在于想要恢复的版本的目录快照的目录的元数据、以及存在于想要恢复的版本的目录的文件的元数据,并将所获取的元数据发送到第1存储器装置10a(S4624)(图33的S3214、S3315)。
(6)第1服务器装置3a在接收从第2服务器装置3b传送来的数据后(S4615),使用该数据将目录快照恢复至第1存储器装置10a(S4616)(图33的S3316)。在步骤S4617中,第1服务器装置3a判断母目录的恢复是否完成,即,目录快照是否已恢复至想要恢复的文件的元数据所得到的目录,在完成母目录恢复处理后,第1服务器装置3a将访问对象文件的存根化标记2111设定成ON,将复制标记2114设定成OFF,将元数据同步需要标记2112设定成ON,将读入专用标记设定成ON(S4515)(图33的S3317)。
接下来,第1服务器装置3a根据所受理的数据I/O请求的对象和种类、管理方式、有无存根化等,进行与所受理的数据I/O请求对应的处理,并向客户端装置2回复响应(S4516)(图33的S3318)。此外,在第1文件服务器对第2文件服务器请求文件的实体时(调回请求:图42的S4214),可以不请求文件的全部实体而是请求其一部分。
如以上详细说明那样,在本实施方式的信息处理系统1中,在第1服务器装置3a的文件恢复时,第1服务器装置3a将时间与目录建立关联,第2服务器装置3b在第1服务器装置3a开始受理数据I/O请求之前,将存储于第2存储器装置10b的文件的数据中的与目录建立关联的版本的从最上位目录至规定的下位层级的目录快照发送到第1服务器装置3a,第1服务器装置3a在将从第2服务器装置3b传送来的目录快照恢复至第1存储器装置10a后,再次开始受理数据I/O请求。
图47是说明图35所示的目录快照删除处理S3500的详细情况的流程图。以下,与该图一起进行说明。
首先,第1服务器装置3a定期地参照目录快照管理表231,确认作为文件恢复目的地的目录2311是否超过删除时间2313(S4711、S4711)。在超过的情况下,判断成目录快照删除的定时(S4712:是),删除目录快照(S4713)。最后,从目录快照管理表231删除包含删除的目录2311在内的条目。
像这样,在本实施方式的信息处理系统1中,在第1服务器装置3a的文件恢复时,不是恢复存在于第1存储器装置10a的全部目录快照,而是仅恢复从最上位的目录至规定的下位层级的目录快照,因此,与恢复过去某时刻存在于第1存储器装置10a的全部目录快照的情况相比,能够缩短文件恢复所需要的时间,能够提前再次开始服务。另外,与恢复全部目录快照的情况相比,可以减少对信息处理系统1带来的负荷,可以减少第1存储器装置10a的存储占用量。
(第二实施方式)
在第二实施方式的信息处理系统1中,在第2服务器装置3b无法将版本信息发送到第1服务器装置3a的情况下,也能够实现与第一实施方式相同的效果。第二实施方式的目录快照生成处理S3200的一部分、按需恢复处理S3300的一部分与第一实施方式不同。
以下,说明用于实施本发明的第二方式和附图。第1服务器装置3a的文件系统312维持根目录的版本管理表231。
图48是说明图32所示的目录快照生成处理S3200的详细情况的流程图。以下,与该图一起进行说明。
首先,第1服务器装置3a生成过去某时刻的目录快照的恢复目的地的目录(S4811)。第1服务器装置3a分别在目录2311、恢复时间2312、删除时间2313中设定所生成的目录的路径、当前时间、对当前时间增加目录快照保持天数而成的时间,由此,在目录快照管理表231中生成新的条目。在此,目录快照保持天数是设定在文件系统312中的、从恢复目的地目录生成开始至删除的天数。
接下来,第1服务器装置3a相对于第2服务器装置3b以如下方式获取文件系统312的恢复时间2312的目录快照的存在于根目录的目录的元数据及存在于根目录的文件的元数据。
(1)第1服务器装置3a从维持于文件系统312的根目录的版本管理表221获取版本信息(S4812)。
(2)接着,从根目录的版本信息(版本管理表221)检索没有超过恢复时间2312的且最近的存储时间2211,并获取与检索到的存储时间对应的版本ID2212(S4813)。
(3)第1服务器装置3a相对于第2服务器装置3b,将存在于具有所获取的版本ID2212的根目录的目录的元数据、以及存在于根目录的文件的元数据的获取请求发送到第2服务器装置3b(S4814)(图32的S3211)。
(4)第2服务器装置3b在接收上述获取请求后(S4821),从第2存储器装置10b获取所请求的根目录的元数据、存在于想要恢复的版本的根目录的目录的元数据、以及存在于想要恢复的版本的根目录的文件的元数据,并将所获取的元数据发送到第1存储器装置10a(S4822)(图32的S3212、S3213)。
接着,第1服务器装置3a在从第2服务器装置3b接收元数据后(S4815)(图32的S3213),将按照所接收的元数据的目录快照构成(恢复)于第1存储器装置10a(S4816)(图32的S3214)。另外,此时,第1服务器装置3a将元数据同步需要标记2112设定成ON,将实体同步需要标记2113设定成ON,将读入专用标记设定成ON(S4817)。
图49是用于说明图33所示的按需恢复处理S3300中的母目录恢复处理的详细情况的流程图。以下,使用图45和图49进行说明。
图45中的S4511~S4513与第一实施方式中的处理相同。
接下来,在调出母目录恢复处理后(S4514),第1服务器装置3a以如下方式进行文件系统312的恢复时间2312的文件系统的以根目录为起点至访问对象文件所存在的目录级别(目录层级)的目录快照的恢复。
(1)第1服务器装置3a获取没有恢复至第1存储器装置10a的目录中的最浅目录级别的目录的链接目的地2116,并相对于第2服务器装置3b,将存在于获取的链接目的地2116所示的目录的目录的元数据、以及存在于根目录的文件的元数据的获取请求发送到第2服务器装置3b(S4911)(图32的S3211)。
(2)第2服务器装置3b在接收上述获取请求后(S4921),从第2存储器装置10b获取所请求的目录的元数据、存在于想要恢复的版本的目录的目录的元数据、以及存在于想要恢复的版本的根目录的文件的元数据,并将所获取的元数据发送到第1存储器装置10a(S4822)(图32的S3212、S3213)。
(3)第1服务器装置3a在接收从第2服务器装置3b传送来的数据后(S4912),使用该数据将目录快照恢复至第1存储器装置10a(S4913)(图33的S3316)。
(4)第1服务器装置3a在到达访问对象文件所存在的目录级别之前,重复S4911~S4913(S4914)。
在母目录恢复处理S4514完成后,执行图45的S4515~S4516而结束处理。
像这样,在本实施方式的信息处理系统1中,即使在第2服务器装置3b不将版本信息提供到外部的情况下,也能够得到与第一实施方式相同的效果。
而且,与第一实施方式相比,由于使用版本信息的版本ID的检索较少,所以能够提高相对于客户端装置2的性能(能够减小响应速度)。
以上,对本实施方式进行了说明,但上述实施方式用于使本发明容易理解,不用于限定地解释本发明。本发明在不脱离其主旨的范围内能够进行变更、改良,并且,本发明也包括其等价物。
例如,在以上说明中,说明了文件共用处理部311、文件系统312、数据操作请求受理部313、数据复制/移动处理部314、文件访问日志获取部317、以及内核/驱动器318的各功能在虚拟机310中得以实现的情况,但这些功能可以不在虚拟机310中实现。
另外,在以上说明中,说明了将根目录至访问对象文件恢复到第1存储器装置10a的情况,但也能够构成为以相同方法恢复其一部分。例如,也能够恢复访问对象文件的母目录和访问对象文件。
附图标记说明
1 信息处理系统
2 客户端装置
3a 第1服务器装置
3b 第2服务器装置
5 通信网络
6a 第1存储网络
6b 第2存储网络
7 通信网络
10a 第1存储器装置
10b 第2存储器装置
50 边缘层
51 核心层
311 文件共用处理部
312 文件系统
313 数据操作请求受理部
314 数据复制/移动处理部
317 文件访问日志获取部
318 内核/驱动器
331 复制信息管理表
335 文件访问日志
365 还原日志
368 文件访问日志
Claims (14)
1.一种信息处理系统,包括:
第1服务器装置,其具有第1文件系统,从客户端装置受理I/O请求;
第1存储器装置,其构成所述第1服务器装置的存储器;
第2服务器装置,其具有第2文件系统,以能够与所述第1服务器装置通信的方式与所述第1服务器装置连接;和
第2存储器装置,其构成所述第2服务器装置的存储器,
所述第1服务器装置将存储于所述第1存储器装置的、作为所述I/O请求的对象的文件的数据发送到所述第2服务器装置,
所述第2服务器装置通过所述第2文件系统保持所述第1文件系统中的目录快照,同时将从所述第1服务器装置传送来的所述数据存储到所述第2存储器装置,
所述信息处理系统的特征在于,
所述第2服务器装置从记载于所述第2存储器装置的目录快照获取构成于所述第1服务器装置的文件系统的目录快照中的规定层级的第1目录快照,并发送到所述第1服务器装置,
所述第1服务器装置在将从所述第2服务器装置传送来的所述第1目录快照恢复至所述第1存储器装置后,当从所述客户端装置受理对想要恢复的文件的I/O请求时,判断对该受理的所述I/O请求进行处理所需要的第2目录快照是否存在于所述第1存储器装置的所述第1目录快照,在该第2目录快照没有存在于所述第1目录快照的情况下,向所述第2服务器装置请求该第2目录快照,
所述第2服务器装置在从所述第1服务器装置传送来所述请求后,从所述第2存储器装置读取所述第2目录快照并发送到所述第1服务器装置,该第1服务器装置将所述第2目录快照恢复至所述第1存储器装置,
所述第1服务器装置将包括所述第1目录快照和所述第2目录快照在内的目的目录快照恢复至所述第1存储器,
所述第2服务器装置的所述第2文件系统在每次进行文件系统对象的生成或更新时,以不同的版本ID管理该生成或更新后的文件系统对象,所述第1服务器装置在恢复所述目的目录的过程中利用所述版本ID。
2.如权利要求1所述的信息处理系统,其特征在于,
所述第1服务器装置的第1文件系统向所述第2服务器装置请求在过去某时刻恢复的存在于根目录的目录的元数据、和存在于所述根目录的文件的元数据,
所述第2服务器在接受该请求后,从所述第2存储器装置获取所述元数据并发送到设定在所第述1服务器装置中的恢复目的地目录,
所述第1服务器装置按照所述恢复目的地目录的所述元数据构成由所述根目录和该根目录的下一层级的文件系统对象组成的目录快照,并将该目录快照作为所述第1目录快照而恢复至所述第1存储器装置。
3.如权利要求2所述的信息处理系统,其特征在于,
所述第1服务器装置从所述第1存储器装置获取存在于所述目的目录快照的所述文件的元数据,并根据该元数据向所述第2服务器请求作为所述文件的实体的数据,
所述第2服务器装置根据该请求从所述第2存储器装置获取作为所述文件的实体的数据并发送到所述第1服务器装置,
该第1服务器装置在获取作为所述文件的实体的数据后,将其存储到所述第1存储器装置的所述目的目录快照的所述文件中。
4.如权利要求1所述的信息处理系统,其特征在于,
所述第1文件系统具有标记,该标记用于在不改变对该文件系统对象的访问权的视图的情况下,抑制对从属于该第1文件系统的文件系统对象的元数据或数据的写入,
所述第1服务器装置将对所述目的目录快照的所述标记设定成对所述元数据或数据的读取专用的状态。
5.如权利要求1所述的信息处理系统,其特征在于,
所述第1服务器装置生成所述第1目录快照被恢复了的恢复目的地目录,并将所述第1目录快照恢复至该恢复目的地目录的恢复时间与所述恢复目的地目录一起记录到目录快照管理表中,以规定定时多次执行所述恢复目的地目录和所述恢复时间向该目录快照管理表的记录。
6.如权利要求1所述的信息处理系统,其特征在于,
所述第2服务器装置的所述第2文件系统在每次进行文件系统对象的生成或更新时,通过所述不同的版本ID和执行所述生成或更新的时间来管理该生成或更新后的文件系统对象。
7.如权利要求6所述的信息处理系统,其特征在于,
所述第1服务器装置根据所述版本ID的信息及所述时间的信息,还根据想要进行所述恢复的文件的恢复日,从从属于所述第1目录快照的文件系统对象的版本ID中确定特定的版本ID,并将用该特定的版本ID特定出的所述文件系统对象之前的获取请求发送到所述第2服务器,
所述第2服务器装置从所述第2存储器装置获取包含所述特定的版本ID的文件系统对象的第1目录快照并发送到所述第1服务器装置,该第1服务器装置将该第1目录快照恢复至所述第1存储器装置。
8.如权利要求7所述的信息处理系统,其特征在于,
所述第1服务器装置将用所述特定的版本ID特定出的所述文件系统对象设定在通过与所述文件的恢复日最近的日期所管理的所述文件系统对象中。
9.如权利要求1所述的信息处理系统,其特征在于,
所述第1服务器装置在从所述客户端装置受理对想要进行所述恢复的文件的I/O请求后,调查在来自所述客户端装置的构成于所述恢复目的地目录的所述第1目录快照中是否存在所述文件的元数据,
所述第1服务器装置在所述文件的元数据没有存在于所述第1目录快照的情况下,根据所述I/O请求中的路径信息,作为位于包含所述第1目录快照的下一层级在内的下层层级的所述第2目录快照的元数据,在得到所述文件的元数据之前,重复对所述第2服务器的该第2目录快照的元数据的请求、从该第2服务器的所述第2存储器装置的元数据的获取、和所获取的元数据向所述第1服务器的发送,
在恢复了所述恢复对象文件的元数据后,在构成按照该元数据的特定目录快照后存储到所述第1存储器装置。
10.如权利要求9所述的信息处理系统,其特征在于,
所述第1服务器装置在从所述客户端装置受理对存在于所述特定目录快照的所述恢复对象文件进行更新的I/O请求后,向所述第2服务器请求该恢复对象文件的实体,
所述第2服务器装置根据该请求,从所述第2存储器装置获取所述实体并发送到所述第1服务器装置,
所述第1服务器装置将所述实体存储到所述特定目录快照的所述恢复对象文件中。
11.如权利要求10所述的信息处理系统,其特征在于,
所述第1服务器装置在向所述第2服务器装置请求所述文件的实体时,不是向所述第2服务器装置请求该文件的实体的全部,而是请求实体的一部分。
12.如权利要求6所述的信息处理系统,其特征在于,
所述第1服务器装置根据存在于权利要求5所述的目录管理表的多个恢复时间中的、从所述客户端装置发生请求的规定恢复时间的存储于恢复目的地目录的所述第1目录快照,恢复所述恢复对象文件的所述元数据。
13.如权利要求1所述的信息处理系统,其特征在于,
所述第1服务器装置关于存储于所述第1存储器装置的所述第1目录快照,检查从该第1目录快照的恢复日起的经过时间,在判断成该经过时间经过了规定时间时,从所述第1存储器装置删除所述第1目录快照。
14.一种文件的恢复方法,是信息处理系统中的文件的恢复方法,该信息处理系统包括:第1服务器装置,其具有第1文件系统,从客户端装置受理I/O请求;第1存储器装置,其构成所述第1服务器装置的存储器;第2服务器装置,其具有第2文件系统,以能够与所述第1服务器装置通信的方式与所述第1服务器装置连接;和第2存储器装置,其构成所述第2服务器装置的存储器,所述第1服务器装置将存储于所述第1存储器装置的、作为所述I/O请求的对象的文件的数据发送到所述第2服务器装置,所述第2服务器装置通过所述第2文件系统保持所述第1文件系统中的目录快照,同时将从所述第1服务器装置传送来的所述数据存储到所述第2存储器装置,
所述文件的恢复方法的特征在于,
所述第2服务器装置从记载于所述第2存储器装置的目录快照获取构成于所述第1服务器装置的文件系统的目录快照中的规定层级的第1目录快照,并发送到所述第1服务器装置,
所述第1服务器装置在将从所述第2服务器装置传送来的所述第1目录快照恢复至所述第1存储器装置后,当从所述客户端装置受理对想要恢复的文件的I/O请求时,判断对该受理的所述I/O请求进行处理所需要的第2目录快照是否存在于所述第1存储器装置的所述第1目录快照,在该第2目录快照没有存在于所述第1目录快照的情况下,向所述第2服务器装置请求该第2目录快照,
所述第2服务器装置在从所述第1服务器装置传送来所述请求后,从所述第2存储器装置读取所述第2目录快照并发送到所述第1服务器装置,该第1服务器装置将所述第2目录快照恢复至所述第1存储器装置,
所述第1服务器装置将包括所述第1目录快照和所述第2目录快照在内的目的目录快照恢复至所述第1存储器,
所述第2服务器装置的所述第2文件系统在每次进行文件系统对象的生成或更新时,以不同的版本ID管理该生成或更新后的文件系统对象,所述第1服务器装置在恢复所述目的目录的过程中利用所述版本ID。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/006072 WO2013061388A1 (ja) | 2011-10-28 | 2011-10-28 | 情報処理システム、及び、それを用いたファイル復元方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103858109A true CN103858109A (zh) | 2014-06-11 |
CN103858109B CN103858109B (zh) | 2016-08-17 |
Family
ID=48167256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180074094.1A Active CN103858109B (zh) | 2011-10-28 | 2011-10-28 | 信息处理系统及使用该信息处理系统的文件恢复方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20130110790A1 (zh) |
EP (1) | EP2772863B1 (zh) |
JP (1) | JP5706966B2 (zh) |
CN (1) | CN103858109B (zh) |
IN (1) | IN2014DN03375A (zh) |
WO (1) | WO2013061388A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106484566A (zh) * | 2016-09-28 | 2017-03-08 | 上海爱数信息技术股份有限公司 | 基于ndmp协议的nas数据备份和文件细粒度浏览恢复方法 |
CN109600600A (zh) * | 2018-10-31 | 2019-04-09 | 万维科研有限公司 | 涉及深度图转换的编码器、编码方法以及三层表达式的存储方法和格式 |
CN112334888A (zh) * | 2018-08-02 | 2021-02-05 | 日立数据管理有限公司 | 服务器信息的分布式恢复 |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7660807B2 (en) | 2005-11-28 | 2010-02-09 | Commvault Systems, Inc. | Systems and methods for cataloging metadata for a metabase |
US8930496B2 (en) | 2005-12-19 | 2015-01-06 | Commvault Systems, Inc. | Systems and methods of unified reconstruction in storage systems |
US20200257596A1 (en) | 2005-12-19 | 2020-08-13 | Commvault Systems, Inc. | Systems and methods of unified reconstruction in storage systems |
US7882077B2 (en) | 2006-10-17 | 2011-02-01 | Commvault Systems, Inc. | Method and system for offline indexing of content and classifying stored data |
US8370442B2 (en) | 2008-08-29 | 2013-02-05 | Commvault Systems, Inc. | Method and system for leveraging identified changes to a mail server |
US20080228771A1 (en) | 2006-12-22 | 2008-09-18 | Commvault Systems, Inc. | Method and system for searching stored data |
US8442983B2 (en) | 2009-12-31 | 2013-05-14 | Commvault Systems, Inc. | Asynchronous methods of data classification using change journals and other data structures |
US8719264B2 (en) | 2011-03-31 | 2014-05-06 | Commvault Systems, Inc. | Creating secondary copies of data based on searches for content |
US8954492B1 (en) * | 2011-11-30 | 2015-02-10 | F5 Networks, Inc. | Methods for inlining content externally referenced in a web page prior to providing the web page to a requestor and devices thereof |
US8892523B2 (en) | 2012-06-08 | 2014-11-18 | Commvault Systems, Inc. | Auto summarization of content |
US9208163B2 (en) * | 2013-01-15 | 2015-12-08 | Ca, Inc. | Methods for preserving generation data set sequences |
US9319265B2 (en) * | 2013-02-22 | 2016-04-19 | Hitachi Data Systems Engineering UK Limited | Read ahead caching of data from cloud storage and method thereof |
US10013217B1 (en) * | 2013-06-28 | 2018-07-03 | EMC IP Holding Company LLC | Upper deck file system shrink for directly and thinly provisioned lower deck file system in which upper deck file system is stored in a volume file within lower deck file system where both upper deck file system and lower deck file system resides in storage processor memory |
US10452484B2 (en) * | 2014-05-15 | 2019-10-22 | Carbonite, Inc. | Systems and methods for time-based folder restore |
US9992298B2 (en) * | 2014-08-14 | 2018-06-05 | International Business Machines Corporation | Relationship-based WAN caching for object stores |
WO2016033056A1 (en) | 2014-08-26 | 2016-03-03 | Ctera Networks, Ltd. | A method and computing device for allowing synchronized access to cloud |
US9836476B2 (en) * | 2014-09-25 | 2017-12-05 | Netapp, Inc. | Synchronizing configuration of partner objects across distributed storage systems using transformations |
WO2016098152A1 (ja) * | 2014-12-15 | 2016-06-23 | 株式会社日立製作所 | 情報システム |
US10120920B2 (en) * | 2015-07-10 | 2018-11-06 | International Business Machines Corporation | Increasing storage space for processes impacting data storage systems |
US10102192B2 (en) | 2015-11-03 | 2018-10-16 | Commvault Systems, Inc. | Summarization and processing of email on a client computing device based on content contribution to an email thread using weighting techniques |
US10296594B1 (en) | 2015-12-28 | 2019-05-21 | EMC IP Holding Company LLC | Cloud-aware snapshot difference determination |
US11023433B1 (en) * | 2015-12-31 | 2021-06-01 | Emc Corporation | Systems and methods for bi-directional replication of cloud tiered data across incompatible clusters |
US9933945B1 (en) | 2016-09-30 | 2018-04-03 | EMC IP Holding Company LLC | Efficiently shrinking a dynamically-sized volume |
US10540516B2 (en) | 2016-10-13 | 2020-01-21 | Commvault Systems, Inc. | Data protection within an unsecured storage environment |
US10599626B2 (en) | 2016-10-25 | 2020-03-24 | International Business Machines Corporation | Organization for efficient data analytics |
US10331115B2 (en) * | 2016-11-28 | 2019-06-25 | Asm Ip Holding B.V. | Substrate processing system, storage medium and data processing method |
JP6835968B2 (ja) * | 2017-02-13 | 2021-02-24 | ヒタチ ヴァンタラ コーポレーションHitachi Vantara Corporation | スタビングによるコンテンツ記憶の最適化 |
US10423609B1 (en) * | 2017-03-29 | 2019-09-24 | Amazon Technologies, Inc. | Consistent snapshot points in a distributed storage service |
US10984041B2 (en) | 2017-05-11 | 2021-04-20 | Commvault Systems, Inc. | Natural language processing integrated with database and data storage management |
US10635632B2 (en) | 2017-08-29 | 2020-04-28 | Cohesity, Inc. | Snapshot archive management |
US11321192B2 (en) * | 2017-09-07 | 2022-05-03 | Cohesity, Inc. | Restoration of specified content from an archive |
US11874805B2 (en) | 2017-09-07 | 2024-01-16 | Cohesity, Inc. | Remotely mounted file system with stubs |
US10719484B2 (en) | 2017-09-07 | 2020-07-21 | Cohesity, Inc. | Remotely mounted file system with stubs |
US20190251204A1 (en) | 2018-02-14 | 2019-08-15 | Commvault Systems, Inc. | Targeted search of backup data using calendar event data |
US10642886B2 (en) | 2018-02-14 | 2020-05-05 | Commvault Systems, Inc. | Targeted search of backup data using facial recognition |
US11301421B2 (en) * | 2018-05-25 | 2022-04-12 | Microsoft Technology Licensing, Llc | Scalable multi-tier storage structures and techniques for accessing entries therein |
US11159469B2 (en) | 2018-09-12 | 2021-10-26 | Commvault Systems, Inc. | Using machine learning to modify presentation of mailbox objects |
JP7287026B2 (ja) | 2019-03-18 | 2023-06-06 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、ファイル管理装置、ファイル管理システム及びプログラム |
US11204892B2 (en) | 2019-03-21 | 2021-12-21 | Microsoft Technology Licensing, Llc | Techniques for snapshotting scalable multitier storage structures |
CN111459710B (zh) * | 2020-03-27 | 2021-06-11 | 华中科技大学 | 感知热度与风险的纠删码内存恢复方法、设备及内存系统 |
US12079162B2 (en) | 2020-03-30 | 2024-09-03 | Pure Storage, Inc. | Snapshot management in a storage system |
US11704035B2 (en) | 2020-03-30 | 2023-07-18 | Pure Storage, Inc. | Unified storage on block containers |
US11494417B2 (en) | 2020-08-07 | 2022-11-08 | Commvault Systems, Inc. | Automated email classification in an information management system |
US11487701B2 (en) | 2020-09-24 | 2022-11-01 | Cohesity, Inc. | Incremental access requests for portions of files from a cloud archival storage tier |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1349089A2 (en) * | 2002-03-19 | 2003-10-01 | Network Appliance, Inc. | System and method for managing a plurality of snapshots of a file system |
CN1773510A (zh) * | 2004-11-12 | 2006-05-17 | 日本电气株式会社 | 存储器管理系统与方法以及程序 |
JP2008040699A (ja) * | 2006-08-04 | 2008-02-21 | Fujitsu Ltd | Hsm制御プログラム、hsm制御装置、hsm制御方法 |
US20110040729A1 (en) * | 2009-08-12 | 2011-02-17 | Hitachi, Ltd. | Hierarchical management storage system and storage system operating method |
US20110078112A1 (en) * | 2009-09-30 | 2011-03-31 | Hitachi, Ltd. | Method and system for transferring duplicate files in hierarchical storage management system |
CN102171660A (zh) * | 2008-09-30 | 2011-08-31 | 赛门铁克公司 | 从整体数据库备份中备份并恢复所选的有版本的对象 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6829617B2 (en) * | 2002-02-15 | 2004-12-07 | International Business Machines Corporation | Providing a snapshot of a subset of a file system |
US7752176B1 (en) * | 2004-03-31 | 2010-07-06 | Emc Corporation | Selective data restoration |
JP4159506B2 (ja) | 2004-04-28 | 2008-10-01 | Necソフトウェア東北株式会社 | 階層記憶装置、その復旧方法、及び復旧プログラム |
JP2006039942A (ja) * | 2004-07-27 | 2006-02-09 | Nec Software Tohoku Ltd | 階層記憶システムにおけるファイル管理装置及びそのファイル管理方法 |
US8170990B2 (en) * | 2008-05-30 | 2012-05-01 | Hitachi, Ltd. | Integrated remote replication in hierarchical storage systems |
US8504515B2 (en) * | 2010-03-30 | 2013-08-06 | Commvault Systems, Inc. | Stubbing systems and methods in a data replication environment |
US8799231B2 (en) * | 2010-08-30 | 2014-08-05 | Nasuni Corporation | Versioned file system with fast restore |
US8548959B2 (en) * | 2010-11-29 | 2013-10-01 | Ca, Inc. | System and method for minimizing data recovery window |
-
2011
- 2011-10-28 JP JP2013540516A patent/JP5706966B2/ja not_active Expired - Fee Related
- 2011-10-28 WO PCT/JP2011/006072 patent/WO2013061388A1/ja active Application Filing
- 2011-10-28 CN CN201180074094.1A patent/CN103858109B/zh active Active
- 2011-10-28 EP EP11874819.3A patent/EP2772863B1/en active Active
- 2011-10-28 IN IN3375DEN2014 patent/IN2014DN03375A/en unknown
- 2011-10-29 US US13/388,193 patent/US20130110790A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1349089A2 (en) * | 2002-03-19 | 2003-10-01 | Network Appliance, Inc. | System and method for managing a plurality of snapshots of a file system |
CN1773510A (zh) * | 2004-11-12 | 2006-05-17 | 日本电气株式会社 | 存储器管理系统与方法以及程序 |
JP2008040699A (ja) * | 2006-08-04 | 2008-02-21 | Fujitsu Ltd | Hsm制御プログラム、hsm制御装置、hsm制御方法 |
CN102171660A (zh) * | 2008-09-30 | 2011-08-31 | 赛门铁克公司 | 从整体数据库备份中备份并恢复所选的有版本的对象 |
US20110040729A1 (en) * | 2009-08-12 | 2011-02-17 | Hitachi, Ltd. | Hierarchical management storage system and storage system operating method |
US20110078112A1 (en) * | 2009-09-30 | 2011-03-31 | Hitachi, Ltd. | Method and system for transferring duplicate files in hierarchical storage management system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106484566A (zh) * | 2016-09-28 | 2017-03-08 | 上海爱数信息技术股份有限公司 | 基于ndmp协议的nas数据备份和文件细粒度浏览恢复方法 |
CN106484566B (zh) * | 2016-09-28 | 2020-06-26 | 上海爱数信息技术股份有限公司 | 基于ndmp协议的nas数据备份和文件细粒度浏览恢复方法 |
CN112334888A (zh) * | 2018-08-02 | 2021-02-05 | 日立数据管理有限公司 | 服务器信息的分布式恢复 |
CN109600600A (zh) * | 2018-10-31 | 2019-04-09 | 万维科研有限公司 | 涉及深度图转换的编码器、编码方法以及三层表达式的存储方法和格式 |
CN109600600B (zh) * | 2018-10-31 | 2020-11-03 | 万维科研有限公司 | 涉及深度图转换的编码器、编码方法以及三层表达式的存储方法和格式 |
Also Published As
Publication number | Publication date |
---|---|
JP5706966B2 (ja) | 2015-04-22 |
JPWO2013061388A1 (ja) | 2015-04-02 |
EP2772863A4 (en) | 2015-08-12 |
CN103858109B (zh) | 2016-08-17 |
EP2772863A1 (en) | 2014-09-03 |
IN2014DN03375A (zh) | 2015-06-26 |
EP2772863B1 (en) | 2016-07-27 |
US20130110790A1 (en) | 2013-05-02 |
WO2013061388A1 (ja) | 2013-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103858109B (zh) | 信息处理系统及使用该信息处理系统的文件恢复方法 | |
CN103052944B (zh) | 信息处理系统中的故障恢复方法和信息处理系统 | |
US8250033B1 (en) | Replication of a data set using differential snapshots | |
JP5439607B2 (ja) | サーバ装置及びサーバ装置の制御方法 | |
JP4336129B2 (ja) | 複数のスナップショットを管理するシステム及び方法 | |
KR100962055B1 (ko) | 컴퓨터 시스템들간의 객체 공유 | |
US8799413B2 (en) | Distributing data for a distributed filesystem across multiple cloud storage systems | |
US8805968B2 (en) | Accessing cached data from a peer cloud controller in a distributed filesystem | |
US8799414B2 (en) | Archiving data for a distributed filesystem | |
JP5716099B2 (ja) | 情報処理システム及び情報処理システムの制御方法 | |
US20130212070A1 (en) | Management apparatus and management method for hierarchical storage system | |
US8538924B2 (en) | Computer system and data access control method for recalling the stubbed file on snapshot | |
KR20090110823A (ko) | 데이터 섀도잉 시스템 및 데이터의 자동 백업 저장 방법 | |
KR101078287B1 (ko) | 다중 복제를 지원하는 분산 파일 시스템에서 데이터 서버의복구 방법 및 그에 적당한 메타데이터 스토리지 및 저장방법 | |
US20070106712A1 (en) | Replication arbitration apparatus, method and program | |
EP2691847B1 (en) | System and method for maintaining consistent points in file systems using a prime dependency list | |
CA2632935A1 (en) | Systems and methods for performing data replication | |
EP4241166A1 (en) | Data connector component for implementing data requests | |
US11422721B2 (en) | Data storage scheme switching in a distributed data storage system | |
JP5681783B2 (ja) | 情報処理システムにおける障害復旧方法、及び情報処理システム | |
Appuswamy et al. | File-level, host-side flash caching with loris |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |