CN1773510B - 控制器以及存储器管理系统 - Google Patents

控制器以及存储器管理系统 Download PDF

Info

Publication number
CN1773510B
CN1773510B CN2005101254097A CN200510125409A CN1773510B CN 1773510 B CN1773510 B CN 1773510B CN 2005101254097 A CN2005101254097 A CN 2005101254097A CN 200510125409 A CN200510125409 A CN 200510125409A CN 1773510 B CN1773510 B CN 1773510B
Authority
CN
China
Prior art keywords
file
counterfoil
mentioned
client
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2005101254097A
Other languages
English (en)
Other versions
CN1773510A (zh
Inventor
鸟居隆史
山川聪
梶木善裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN1773510A publication Critical patent/CN1773510A/zh
Application granted granted Critical
Publication of CN1773510B publication Critical patent/CN1773510B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/185Hierarchical storage management [HSM] systems, e.g. file migration or policies thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明提供一种能够简化导入,且能够对客户端完全隐藏向二次存储器的移动的存储器管理系统,具备:至少1个客户端;具有1次存储器的第1服务器;具有2次存储器的第2服务器;以及,逻辑设置在客户端与第1、2服务器之间的中间装置(控制器)。1次存储器中,具备记录有从1次存储器移动到2次存储器的实文件的位置信息的存根文件。在从客户端,发出了第1服务器的1次存储器的文件访问请求时,中间装置,接收文件访问请求,在访问对象的文件是存根文件,并且该访问请求,需要对实文件进行访问的情况下,使用存根文件的信息,访问2次存储器的实文件,向上述客户端返回作为访问结果的应答,并控制为从客户端看起来存根文件好像是实体。

Description

控制器以及存储器管理系统
技术领域
本发明,涉及一种存储器管理技术,特别是在客户端与文件服务器之间具有逻辑中间装置,在层级之间设置文件,并对客户端隐藏层级的系统与方法以及计算机程序。
背景技术
现在的计算机系统中,所保存的数据年年增加。不但是文件数增加,文件的大小也因多媒体类的动画数据等而增大。因此,需要更大容量、更高速的存储器。企业与数据中心为了应对该需要,不断增加存储器的容量。但是,并不是是文件中所保存的全部数据都被访问,甚至可以说,全体之中,一半以上的数据最近1年多来都完全没有被访问过。
有一种层级存储器管理方式(HSM:Hierarchy Storage Management),着眼于这个现象,将经常被访问的数据保存在高速·高价·低容量的存储器中,将几乎不被访问的数据,保存在低速·廉价·大容量的存储器中。
虽然如果数据的量较少,管理者能够移动数据,但在太拉(tera)字节水平存储器逐渐普通的现状下,已经超出了管理者能够把握数据的重要度的容量。
HSM中,根据客户的访问频度以及文件的信息,选出自动移动的数据,实施将其从高速存储器移动到低速存储器等处理。
这样,即使将数据移动到低速存储器中,客户端中仍能够向移动前一样(可能会稍稍感到迟缓)进行访问。
以往的HSM,大体分为:将HSM软件植入客户端的主机型,以及在服务器侧实施HSM的服务器型这两大类。
将HSM装入客户端的这种类型,一般是专门化为应用程序的HSM。例如,HSM对应邮件软件。由于邮件,容易建立日期越早重要度也随之下降的这种简单的模型,因此具有容易进行HSM对应的特征。将日期较早的邮件,自动移到二次存储器中,并将一次存储器的邮件文件换成快捷方式文件。快捷方式文件中,存储有实体文件在二次存储器中的路径名。
客户端读出该文件之后,HSM对应邮件软件便读出快捷方式文件的内容,访问二次存储器。因此,客户端并不会意识到存在二次存储器。另外,“快捷方式文件”,是Windows(注册商标)中的称呼,在Unix(注册商标)中称作“符号连接”。
这种类型中,快捷方式文件以及符号连接,均无法对客户端完全隐藏文件被移动到了二次存储器中这一情况。
虽然若通过HSM对应软件进行操作,将移动到二次存储器中的快捷方式文件的大小变换成实体文件的容量,但如果通过例如Windows(注册商标)的资源管理器(Explorer)(注册商标)来查看,则会发现是文件大小为1KB的快捷方式文件。
另外,在进行文件删除的情况下,虽然在通过HSM对应软件进行的操作中,将二次存储器的实体文件也删除,但如果从资源管理器(注册商标)来实施,删除的便仅仅是快捷方式文件,不会删除二次存储器的实体文件。
另外,在服务器侧实施HSM的类型中,为了不专门化为应用程序,而通过文件系统等级来实现,从而有使用存根文件的方式.
存根文件与快捷方式文件的不同点在于,快捷方式文件能够被文件系统识别,与此相对,存根文件是文件系统中的通常文件,进行识别的是HSM对应软件。
在服务器侧实施HSM的问题点在于,需要让服务器能够对应HSM,从而需要更换现有的服务器。
另外,参照专利文献1等,有一种让客户端能够将多个文件服务器作为1个文件系统来访问的中间装置(交换机)。另外,专利文献2中公布了一种层级存储装置,构成为使用访问速度不同的多个存储媒体(一次存储媒体与二次存储媒体)来管理大量数据,自动实施将利用频度低的数据存储到二次存储媒体中等。另外,专利文献3中,公布如下结构:CIFS(CommonInternet File System:通用互联网文件系统)协议文件,对从CIFS客户端发送的写入SMB(Server Message Block:服务器消息块)消息数据实施拆分处理,依次写入到多个服务器中,并且在读出数据时,从多个服务器中依次交替读出来进行复原。
【专利文献1】特开2003-203029号公报
【专利文献2】特开2001-222450号公报
【专利文献3】特开2003-150435号公报
以往的层级存储器管理方式,存在如下所述的问题点。
第1问题点在于,以往的层级存储器管理方式很难由用户导入。
对于导入到客户端的HSM对应软件而言,需要向所有的客户端导入HSM对应软件的工作,而服务器侧的HSM中,需要用HSM对应的同一个厂家装置进行统一,无法使用现有的存储器装置。
第2问题点在于,因向二次存储器的移动,使得对客户端的表现方式产生了变化。也即,无法完全对客户端隐藏通过HSM方式向二次存储器的移动。
发明内容
因此,本发明的目的在于,提供一种容易导入的存储器管理系统与方法以及程序。
本发明的另一个目的在于,提供一种能够完全对客户端隐藏向二次存储器的移动的存储器管理系统与方法以及程序。
本发明的另一个目的在于,提供一种能够扩大最大文件大小的存储器管理系统与方法以及程序。
本发明的再另一个目的在于,提供一种能够在分散的多个据点间存根化的存储器管理系统与方法以及程序。
本发明的再另一个目的在于,提供一种能够进行存根化/非存根化的触发控制的存储器管理系统与方法以及程序。
本申请中所公布的发明,为实现上述目的,概略上采用以下结构。
本发明的第1发明中,提供一种控制器,具备:判断机构,其在从客户端发出了对文件服务器的文件的访问请求时,接收对上述文件的访问请求,判断上述文件,是否记录有从上述文件服务器移动到其他文件服务器的实文件的位置信息且为保存在上述文件服务器中的存根文件;以及,控制机构,其在是存根文件的情况下,在上述访问请求,需要对实文件的访问的情况下,根据上述存根文件的信息实施控制,访问上述其他文件服务器的实文件并向上述客户端返回应答,上述存根文件内,存储有1个实文件的多个分割文件的位置信息,能够通过对应于1个实文件的上述存根文件,扩大上述1个实文件的最大文件大小.
本发明的第2发明中,提供一种存储器管理系统,包括第1发明所述的控制器,所述控制器,在设置在存储器装置中的存根文件内,存储有多个分割文件的路径名,能够通过对应于1个实文件的上述存根文件,扩大上述1个实文件的最大文件大小,上述多个分割文件,具有至少1对具备重叠的区域的分割文件。
此外,本发明还包括如下实现方式。
本发明的一方面(侧面)中的控制器,具备:判断机构,其在从客户端发出了对文件服务器的文件的访问请求时,接收对上述文件的访问请求,判断上述文件,是否记录有从上述文件服务器移动到其他文件服务器的实文件的位置信息且为保存在上述文件服务器中的存根文件;以及控制机构,其在是存根文件的情况下,在上述访问请求,需要对实文件的访问的情况下,根据上述存根文件的信息实施控制,访问上述其他文件服务器的实文件并向上述客户端返回应答。本发明中的控制器,可具有存储管理机构,其对包含上述文件服务器中保存的上述存根文件、与上述其他文件服务器中保存的上述实文件之间的对应关系的信息进行存储管理,在上述访问请求能够由上述控制器所保持的上述信息来应对的情况下,不访问上述实文件,从上述控制器,向上述客户端返回对上述访问请求的应答。
本发明的另一侧面中的存储器管理系统,具有:至少1个客户端;具有1次存储器的第1服务器;具有2次存储器的第2服务器;以及,上述控制装置,上述1次存储器,具备记录有从上述1次存储器移动到上述2次存储器的实文件的位置信息的存根文件;上述控制装置,在从上述客户端,发出了上述第1服务器的上述1次存储器的文件访问请求时,接收上述文件访问请求,判断访问对象的文件是否是存根文件,在是存根文件并且上述访问请求需要对实文件的访问的情况下,用上述存根文件的信息实施控制,访问上述2次存储器的实文件并向上述客户端返回应答,并且实施控制使得从上述客户端看来上述存根文件是实文件。本发明中的存储器管理系统中,可够成为,令上述控制装置具有存储管理包括上述1次存储器中所保存的上述存根文件与上述2次存储器中所保存的上述实文件之间的对应关系的信息的存储机构;在上述访问请求,能够通过上述控制装置所保持的上述信息来应对的情况下,从上述控制装置,向上述客户端返回对上述访问请求的应答。
本发明的另一侧面中的方法,是包括至少1个客户端、具有1次存储器的第1服务器、具有2次存储器的第2服务器以及控制装置的系统的存储器管理方法,其中:在上述1次存储器中,设置记录有从上述1次存储器移动到上述2次存储器的实文件的位置信息的存根文件;并且该存储器管理方法,包括:上述控制装置,在从上述客户端,发出了上述第1服务器的上述1次存储器的文件访问请求时,接收上述文件访问请求,并判断访问对象的文件是否是存根文件的步骤;以及,上述控制装置,在上述判断的结果显示是存根文件并且上述访问请求需要对实文件的访问的情况下,根据上述存根文件的信息实施控制,访问上述2次存储器的实文件并向上述客户端返回应答的步骤,并且使得从上述客户端看起来上述存根文件就像是实文件.本发明中的方法中,可包含:上述控制装置,存储管理包括上述1次存储器中所保存的上述存根文件与上述2次存储器中所保存的上述实文件之间的对应关系的信息的步骤;以及,上述控制装置,在上述访问请求能够通过上述控制装置所保持的上述信息来应对的情况下,从上述控制装置,向上述客户端返回对上述访问请求的应答的步骤.
本发明的另一侧面中的计算机程序,使构成在从客户端发出对文件服务器的文件的访问请求时接收对上述文件的访问请求的控制装置的计算机,执行:判断处理,对上述文件是否是记录有从上述文件服务器移动到其他文件服务器的实文件的位置信息、且保存在上述文件服务器中的存根文件进行判断;以及,控制处理,在是存根文件、并且上述访问请求需要对实文件的访问的情况下,根据上述存根文件的信息实施控制,访问上述2次存储器的实文件并向上述客户端返回应答。本发明中的程序中,可包括让上述计算机执行:用存储机构对包括上述文件服务器中所保存的上述存根文件与上述其他文件服务器中所保存的上述实文件之间的对应关系的信息进行存储管理的处理;以及,在上述访问请求,能够通过上述控制器所保持的上述信息来应对的情况下,不访问上述实文件,从上述控制器,向上述客户端返回对上述访问请求的应答的处理的程序。
本发明中的上述控制器、存储器管理系统与方法、计算机程序中,可以采用以下构成。
根据上述文件的属性信息,判断是否是存根文件。
让上述存根文件的文件大小是固定长度。
上述存根文件的生成时刻属性栏中,包含有表示是存根文件的值。
上述存根文件的变更时刻属性栏中,包含有表示是存根文件的值。
上述存根文件,包含有用来让上述控制器(控制装置)能够判断是否是存根文件的幻数。
上述存根文件包含有上述实文件的属性。
上述存根文件包含有访问上述实文件的识别符。
上述识别符,是路径名、存储器所生成的ID、URL(Uniform ResourceLocator)中的任意一个。
上述存根文件,包含有多个上述识别符。
根据从上述客户端向上述文件服务器的文件访问,判断是否是对存根文件的访问。
根据来自上述客户端的访问中所包含的文件ID或文件柄,判断是否是对存根文件的访问。
将来自上述客户端的访问请求发送给文件服务器,根据来自上述文件服务器的应答中所包含的属性,判断是否是存根文件。
在将来自上述客户端的访问请求发送给文件服务器,并且根据来自上述文件服务器的应答中所包含的属性,判断有可能是存根文件的情况下,用上述1个文件服务器读出上述存根文件,根据上述存根文件的幻数判断是否是存根文件。
在将来自上述客户端的访问请求原样转发给文件服务器后,文件属性发生变化的情况下,判断是否是上述存根文件的机构,在将上述访问发送给文件服务器之前,访问上述文件服务器,判断是否是存根文件。
观察从上述客户端向文件服务器的文件访问,判断是否是对存根文件的访问,并变更控制动作。
上述存根文件包含有上述控制器(控制装置)的处理的描述,进行通过上述存根文件的描述内容所提示的动作.
在来自上述客户端的访问请求的对象,不是存根文件的情况下,将访问请求原样转发给服务器,将来自文件服务器的应答原样转发给客户端。
在是存根文件的情况下,不被上述客户端察觉地切换成对实文件的访问。
在打开时,如果打开对象文件是存根文件,则将文件ID存储起来,以后的使用文件ID的访问请求中,通过与上述所保存的文件ID进行比较,来判断是否是对存根文件的访问。
在查找时(LOOKUP),如果是存根文件,便将文件柄存储起来,在以后的使用文件柄的请求中,通过与所存储的文件柄进行比较,判断对存根文件的访问。
在客户端读或写文件时,如果是对存根文件的访问,便将其变更为对实文件的访问。
打开实文件,并将上述实文件的文件ID与存根文件的文件ID成组保存。
查找(LOOKUP)实文件,并将上述实文件的文件柄与存根文件的文件柄成组保存。
在被上述客户端输入了使用存根文件的文件ID的访问请求时,替换成上述存储的实文件的文件ID,向存储有上述实文件的文件服务器发送上述访问请求。
在被上述客户端输入了使用存根文件的文件柄的访问请求时,替换成上述存储的实文件的文件柄,向存储有上述实文件的文件服务器发送上述访问请求。
在被上述客户端输入了变更属性的请求时,变更为不改写存根文件属性后发送给文件服务器,并控制为不改写存根文件属性。
具有缓存上述存根文件的内容的存储部,在存在来自上述客户端的访问时,不从上述1个文件中读出存根文件本身,而使用上述缓存的内容来进行处理。
因从上述客户端对存根文件的更新而改变了属性时,不变更存根文件本身的文件属性,更新所缓存的存根文件数据的内容,在从上述客户端接收到关闭(CLOSE)请求时,写回到存根文件自身中。
在从上述客户端发出关闭(CLOSE)请求之后,接收该请求,并对存根文件与实文件这双方进行关闭处理。
在从上述客户端发出关闭(CLOSE)请求之后,接收该请求,并将所存储的文件ID的表删除。
在上述客户端不会明示发出关闭(CLOSE)的协议的情况下,考虑上述客户端缓存文件柄的时间,在其以上的时间中,上述客户端没有进行访问的情况下,删除所保存的文件柄变换表。
接收从上述文件服务器向上述客户端的文件访问应答,变更上述应答的信息的一部分回发给上述客户端,让上述客户端不会发现是存根文件。
在客户端打开文件时,通过文件的属性来判断是否是存根文件,如果是存根文件属性,则变更成实文件属性后转发给客户端。
在来自文件服务器的对来自上述客户端的文件属性取得命令的应答中,如果上述文件是存根文件,在将属性变更成实文件属性之后,将变更之后的应答,转发给客户端。
不对上述客户端造成影响地,复制实文件来进行存根文件化。
将上述1个文件服务器的文件复制到其他文件服务器中,暂时保留客户端访问,将上述1个文件服务器的文件改写为存根文件,之后恢复客户端的访问.
不对上述客户端造成影响地,将上述存根文件,恢复成实文件。
将上述实文件,复制到1个文件服务器的临时区域中之后,暂时保留客户端的访问,通过名称变更(RENAME)来替换存根文件,之后恢复客户端访问。
本发明中,在客户端与服务器之间,导入控制装置(也称作“中间装置”),由于中间装置只使用客户端·服务器间的标准文件访问协议,因此客户端·服务器均不需要任何特别的对应。
另外,本发明中,由于控制装置,能够用文件访问协议的等级完全隐藏向二次存储器的移动,因此客户端中完全不会察觉文件被移动到了二次存储器中,而能够进行使用。
本发明中,通过在存根文件内保存多个分割文件的路径名,能够扩大最大文件大小。各个分割文件中,最大设有读写大小那么多的重叠区域,让1个命令的访问不会跨越多个分割文件。
关于重叠区域的写入,在两个分割文件中同步。
如果达到最大文件大小以下的某个阈值,便作为新的分割文件,在存根文件中注册路径名。
在首次存根化原文件的情况下,通过对原文件实施RENAME来进行。因此,首个分割文件设置在与原文件相同的文件系统内。之后所生成的分割文件,可以分散设置在不同的文件系统中。
在广域分散网络文件系统(多个据点)中,可以采用存根与实文件分散设置并互相参照的构成。
在实文件存在于自据点的文件系统中的情况下,在因更新使得属性被改变时,更新他据点的存根文件。
在实文件存在于他据点的文件系统中的情况下,根据自据点的存根文件内的实文件信息,向他据点的实文件转发。
中间装置缓存他据点的实文件,在自据点的存根文件中存储缓存信息。如果有访问,便将自据点的存根文件的缓存信息与实文件属性进行比较,如果缓存有效,便使用缓存进行应答。
更详细的说,1个据点的文件系统,具有缓存他据点的实文件的缓存区域,在上述存根文件中存储缓存信息。
上述中间装置,具有存储有与所缓存的实文件相对应的上述存根文件的缓存信息的存储部,上述1个据点的上述中间装置,接收来自上述客户端的访问请求,检查存根文件的缓存信息,是否保存在上述中间装置的存储部中,在保存在其中的情况下,使用上述缓存区域的实文件,对来自上述客户端的访问请求进行处理。
作为存根化的触发,如果存储器容量达到阈值,便进行存根化。此时,可从没有访问的文件开始进行存根化。
在多个据点所构成的广域分散环境中,根据用户的访问信息,在访问较多的据点中设置实文件,在其他据点中进行存根化。
在设定了限额限制的情况下,设定比其小的阈值,如果达到该阈值,便进行控制,将访问的老文件移动到下层等。
通过本发明,不需变更现有的客户端·服务器,能够实现层级存储器管理,并能够大幅削减管理工作量。
另外,通过本发明,由于能够对客户端完全隐藏向二次存储器的移动,因此客户端不会察觉到层级存储器管理,而能够进行系统的运用。
根据本发明,通过采用在存根文件中具有多个分割文件的路径信息的构成,能够扩大最大文件大小。
另外,根据本发明,多个据点间的存根、实文件能够互相参照。通过在访问频度较高的据点中设置实文件,在访问频度较低的据点中进行存根化等,能够抑制降低据点间(机群间)的通信的增大,从而能够避免据点间互相访问中的性能降低。
另外,根据本发明,通过在达到限额(Quota)设定值之前,自动进行存根化,从而能够事先避免限额错误所引起的访问锁定等。
附图说明
图1为说明本发明的一个实施例的系统构成的图。
图2为说明本发明的一个实施例的使用存根文件的处理概要的图。
图3为说明本发明的一个实施例的存根文件格式的图。
图4为说明本发明的一个实施例的中间装置所具有的表的图。
图5为通过流程说明本发明的一个实施例的动作的图。
图6为通过流程说明本发明的一个实施例的动作的图。
图7为通过流程说明本发明的一个实施例的动作的图。
图8为通过流程说明本发明的一个实施例的动作的图。
图9为通过流程说明本发明的一个实施例的动作的图。
图10为通过流程说明本发明的一个实施例的动作的图。
图11为通过流程说明本发明的一个实施例的动作的图。
图12为通过流程说明本发明的一个实施例的动作的图。
图13为说明本发明的一个实施例的使用存根文件的处理概要的图。
图14为说明本发明的一个实施例的使用存根文件的处理概要的图。
图15为说明本发明的一个实施例的中间装置所具有的表的图。
图16为通过流程说明本发明的一个实施例的动作的图。
图17为说明本发明的一个实施例的中间装置的构成之一例的图。
图18为说明本发明的另一实施例中的最大文件大小的扩大的图。
图19为说明本发明的另一实施例中使用存根文件的最大文件大小的扩大的图。
图20为说明本发明的另一实施例中的存根文件与分割文件之间的对应的图。
图21为说明本发明的另一实施例的广域分散环境中的相互参照模型的图。
图22为说明广域分散环境中的READ/WRITE类处理(存根侧)的顺序图。
图23为说明广域分散环境中的READ/WRITE类处理(实数据侧)的顺序图。
图24为说明广域分散环境中的文件系统更新处理(存根侧)的顺序图。
图25为说明广域分散环境中的文件系统更新处理(实数据侧)的顺序图。
图26为说明本发明的另一实施例中的存根文件的缓存的图。
图27为说明图26的系统中的READ缓存(存根侧)的顺序图。
图28为说明图26的系统中的WRITE缓存(存根侧)的顺序图。
图29为用来说明本发明的另一实施例的由Quota设定值与存储器使用量阈值实现的存根化的图。
图中:1-客户端,2-网络,3-中间装置(NAS交换器),4-网络,5-文件服务器(一次存储器)、NAS,6-文件服务器(二次存储器),7-存根文件,7A-存根识别用幻数,7B-实文件属性,7C-二次存储器实文件路径名,7D-保留部,8-实文件,11-存根文件ID表,11A-一次存储器FID,11B-二次存储器FID,11C-存根管理表指针,12-存根管理表,12A-一次存储器文件路径名,12B-二次存储器文件路径名,12C-实文件属性,13-存根文件柄表,13A-一次存储器文件柄,13B-二次存储器文件柄,13C-存根管理表指针,14-包转发部,15-存根文件判断部,16-服务器访问部,17-属性变更部,18-表管理部,31-指针,51-缓存区域,52-服务区域,101~106-OPEN时的动作流程,111~117-READ时的动作流程,121~125-属性GET(通过文件ID指定对象)的动作流程,131~137-属性GET(通过PATH指定对象)的动作流程,141~149-属性SET(通过文件ID指定对象)的动作流程,151~159-属性SET(通过PATH指定对象)的动作流程,161~168-FIND类(通过PATH指定对象)的动作流程,171~178-CLOSE时的动作流程,181~185-NFS协议的情况下的动作流程。
具体实施方式
对照附图对本发明的实施方式进行说明。图1为表示使用本发明中的中间装置的一个实施方式的系统构成的图。对照图1,本发明的一个实施方式中的系统,客户端1与构成本发明的控制装置的中间装置3,经网络2相连接,中间装置3与文件服务器5以及文件服务器6,经网络4相连接。文件服务器5,是相对高速·小容量的一次存储器,文件服务器6,是相对低速·大容量的二次存储器。网络2、4例如使用IP网。客户端1,例如使用标准文件访问协议(NFS(Network File System:网络文件系统)或CIFS(Common Internet File System:通用互联网文件系统)等),访问文件服务器5(一次存储器)。
客户端1,对位于文件服务器5(一次存储器)中的文件进行访问。
被移动到文件服务器6(二次存储器)中的文件,中间装置3对访问实施将访问目的地变更为文件服务器6(二次存储器)的处理。
由于对文件服务器6(二次存储器)的访问,由中间装置3进行,因此客户端1不会发现对文件服务器6(二次存储器)进行的访问,能够完全隐藏。另外,虽然本发明的控制装置,由位于客户端与文件服务器的文件访问协议的中间位置的中间装置3构成,但并不限制于该结构,也可以构成为设置在文件服务器5(一次存储器)内。另外,本发明的控制装置,也可以由软件模块构成。
图2为说明本发明的一个实施方式的动作原理的图。对照图2,对中间装置用来实施将访问从文件服务器5(一次存储器)变更到文件服务器6(二次存储器)的处的方法进行说明。
文件服务器6(二次存储器)中,放置实文件8(被从文件服务器5(一次存储器)移动来的文件),文件服务器5(一次存储器)中,放置与实文件8相对应的存根文件(stub file)7。而且,文件服务器5(一次存储器)的存根文件7中,存储有被移动到文件存储器6(二次存储器)中的实文件8的路径名。
中间装置3,在客户端1访问文件服务器5(一次存储器)时,在其是存根文件7的情况下,使用存根文件7中所保存的路径名,访问文件服务器6(二次存储器)的实文件8,接收来自文件服务器6(二次存储器)的应答,回发给客户端1。通过这样,客户端1能够像文件服务器5(一次存储器)上存在实文件8一样进行文件操作。
下面对中间装置3的处理进行详细说明。
首先,中间装置3,需要判断客户端1所访问的文件是否是存根文件7。因此,本实施方式中,将存根文件7设为如下的文件。
·在文件的时间戳中,插入表示存根文件的ID(CIFS中使用生成时刻:Create Time。NFS中使用Mtime)
·将文件大小固定为例如1KB。如果将文件大小设为很难与通常的文件重复的值则更加理想。即,原因在于能够通过文件大小的值来判断是存根文件或是其候选。
·在文件数据的开头,加入幻数。
这样,由于能够通过文件属性(文件时间戳与文件大小)来判断存根文件,因此能够进行高速的判断。
另外,通过本实施方式,通过在文件开头加入幻数,能够防止存根文件的误识别,从而能够可靠地判断存根文件。
图3为表示本发明的一个实施例中的存根文件7的格式的图。参照图3,存根文件7的开头,是存根文件识别用幻数7A。这是用来最终确认是存根文件的标志,采用某个程度的长度的幻数。
实文件属性7B中,存储有实文件8的属性(文件大小,更新日期等)。通过这样,对于只需要返回属性的这种请求,不访问文件服务器6(二次存储器),就能够回复应答。
二次存储器实文件路径名7C,是文件服务器6(二次存储器)内的实文件8的路径名。虽然对其并没有特别的限制,但本例中,由于文件服务器6是通过路径名来访问文件的服务器,因此是二次存储器内的实文件路径名7C。但是,如果不是通过路径名,而是通过某种ID来确定文件的服务器,则使用ID,也可使用块地址或URL(Uniform Resource Locator)等。即,二次存储器实文件路径名7C,只要能够让中间装置3根据它来访问实文件8即可。
保留部(reserve)7D,如前所述,是为了令存根文件7长度固定而添加的空白区域。
另外,存根文件7的格式也不一定为该顺序,除了图3所示的要素以外,还可以再设置其他要素来构成。
使用存根文件7的优点在于,中间装置3可不持有移动到文件服务器6(二次存储器)中的文件的表。
例如,虽然也考虑到不使用存根文件7,由中间装置3保持所有的信息,但这种情况下,对于来自客户端1的所有请求,都需要由中间装置3内部实施与表项(table entry)的比较。
与此相对,在使用存根文件7的系统中,中间装置3,将来自客户端1的命令转发给文件服务器5(一次存储器),中间装置3能够通过观察来自文件服务器5的应答中所包含的文件属性,来判断是否是存根文件.因此,中间装置3不需要保持所有的存根文件的信息,存根文件7的数目从而不受中间装置3的存储容量限制.另外,也不会因中间装置3的存储容量的压迫,使得传输速度降低,从而能够高速传输.
接下来,对中间装置3的内部所保持的表进行说明。在CIFS协议的情况下,具有图4所示的两个表。存根文件ID表11,是在客户端1打开存根文件7的情况下(作为客户端1,可以看作是打开实文件8)所生成的表。存根文件ID表11,具有一次存储器FID(11A)、二次存储器FID(11B)、以及存根管理表指针(11C)。
一次存储器FID(11A),是文件服务器5(一次存储器)的存根文件7的文件ID(关于文件ID将在后文中说明)。
二次存储器FID(11B),是文件服务器6(二次存储器)的实文件8的文件ID。
存根管理表指针(11C),是指向对应的存根管理表12的指针。
存根管理表12,是在客户端1访问存根文件7时,将存根文件7的内容用中间装置3进行缓存的表,具有一次存储器文件路径名(12A)、二次存储器文件路径名(12B)、以及实文件属性(12C)。
一次存储器文件路径名(12A),是文件服务器5(一次存储器)的存根文件7的路径名。
二次存储器文件路径名(12B),是文件服务器6(二次存储器)的实文件8的路径名。其被设定与存根文件7内的二次存储器实文件路径名7C相同的内容。
实文件属性(12C),是实文件8的属性,被设定与存根文件7内的实文件属性7B相同的内容。
但是,在从客户端1进行更新,变更实文件的属性的情况下(例如进行了WRITE(写入)导致文件大小增大等情况下),不需要每次都改写存根文件7内的实文件属性7B,有时只改写中间装置3内的存根管理表12就能够对应。这种情况下,存根文件7内的实文件属性7B与存根管理表12的实文件属性12C不同。
接下来,对客户端1经中间装置3进行访问时的中间装置3的动作进行说明。
虽然没有特别的限制,但以下,以Windows(注册商标)环境的缺省下使用的CIFS协议作为文件访问协议的情况为例进行说明。虽然在其他文件访问协议中,命令形式多少有些不同,但基本的动作相同,也能够适用本发明。
<OPEN(通过路径名指定对象)>
图5为表示从客户端1发出OPEN(打开)请求,并被中间装置3收到时的处理顺序的流程图。
在客户端1开始访问时,首先,指定路径名并发出OPEN请求(OPENReq(PATH))。对于OPEN请求,文件服务器5、6如果成功或失败、成功,则应答文件ID(FID)与文件属性。
客户端1,在到此次的OPEN请求之后的CLOSE之前的期间,使用由来自文件服务器的对OPEN请求的应答所发送的文件ID,进行READ(读取)或WRITE(写入)等访问。这个构造,几乎在所有的文件访问协议中都是共通的。
中间装置3,接收来自客户端1的OPEN请求(OPENReq(PATH),并将其直接转送给文件服务器5(一次存储器)(步骤101)。
然后,中间装置3,接收来自文件服务器5(一次存储器)的应答(OPENResp(FID、属性)),并检查该应答中所包含的文件属性(步骤102)。
在文件属性不是存根文件属性的情况下(步骤102的否判断),中间装置3,将来自文件服务器5的应答(OPENResp(FID、属性)),原样转发给客户端1(步骤106)。所谓存根文件属性,如上所述,为文件属性中时间戳与文件大小表示是存根文件的情况。
中间装置3,在是存根文件属性的情况下(步骤102的是判断),为了进行确认,对文件开头进行READ(READReq(FID)),确认文件开头的幻数(步骤103)。如果不是存根文件7(步骤103的否判断),中间装置3将来自文件服务器5的应答(OPENResp(FID、属性)),原样转发给客户端1(步骤106)。
在是存根文件7的情况下(步骤103的是判断),中间装置3生成存根文件ID表11与存根管理表12(步骤104)。但是,在中间装置3中已经存在该存根文件7的存根管理表12的情况下,不重新生成。这相当于,其他客户端1已经打开了该存根文件的情况等,或用FIND类命令等、不OPEN地用路径名进行指定的命令到来时,进行生成的情况。
接下来,中间装置3,将来自文件服务器5(一次存储器)的应答(OPENResp(FID、属性))内的文件属性,改写为存根管理表12内的实文件属性(12C)(步骤105),并将应答(OPENResp(FID、属性))转发给客户端(步骤106)。
通过这样,由于客户端1接收到了实文件8的属性,因此隐藏其是存根文件7这一情况。另外,上述中间装置3的处理,可以通过由构成中间装置3的计算机所执行的程序等来实现。
<READ/WRITE(用文件ID指定对象)>
图6为表示OPEN后,从客户端1发出READ/WRITE请求时的处理顺序的流程图。另外,图6中表示READ请求发出时的处理顺序。
客户端1,在READ请求(READReq(FID))中,指定文件ID(FID))(步骤111)。
中间装置3,接收来自客户端1的READ请求(READReq(FID)),并从存根文件ID表11中检索文件ID(步骤112)。如果步骤S112中的检索结果显示,该文件ID不存在于存根文件ID表11中(步骤113的否分支),则得知不是存根文件。因此,中间装置3,将READ请求(READReq(FID)),像通常一样原样转发给文件服务器5(一次存储器)。之后,中间装置3,将来自文件服务器5(一次存储器)的应答也原样回发给客户端1。
另一方面,中间装置3中,在文件ID存在于存根文件ID表11中的情况下(步骤113的是分支),中间装置3检查存根文件ID表11的二次存储器FID(11B)是否有效(步骤114)。二次存储器FID(11B)是否有效,可以在存根文件ID表生成时,将二次存储器FID(11B)设定为NULL(空),在判断时,如果是NULL以外则判断为有效。
在步骤114的判断的结果显示,二次存储器FID(11B)有效的情况下(步骤114的是分支),中间装置3对文件服务器6(二次存储器),使用二次存储器FID(11B)来发送READ请求(116),并将来自文件服务器6(二次存储器)的应答转发给客户端1(步骤117)。
另一方面,在步骤114的判断的结果显示,二次存储器FID(11B)无效的情况下(步骤114的否分支),由于中间装置3,是OPEN后的首次READ或WRITE,因此文件服务器6(二次存储器)的实文件8没有被OPEN.因此,中间装置3,使用存根管理表12内的二次存储器文件路径名(12B),对文件服务器6(二次存储器)的实文件8进行OPEN,并将文件服务器6(二次存储器)的应答的文件ID,注册到存根文件ID表11的二次存储器FID(11B)中(步骤115).也即,中间装置3向文件服务器6(二次存储器)发送OPEN请求(OPENReq(PATH2)),并从来自文件服务器6(二次存储器)的应答(OPENResp(FID2,属性))中,将二次存储器的文件ID(FID2),保存到存根文件ID表11的二次存储器FID(11B)中.通过这样,二次存储器FID(11B)便不是初始设置的值NULL.
之后,中间装置3使用二次存储器FID(11B),来将READ请求(READReq(FID2))发送给文件服务器6(二次存储器)(步骤116),中间装置3接收来自文件服务器6(二次存储器)的应答(ReadResp),并将该应答转发给客户端1(步骤117)。
在来自客户端1的访问请求是WRITE请求的情况下,写入的结果有时候会让文件大小变化。虽然因文件服务器5(一次存储器)的存根文件7内具有实文件属性7B,需要进行变更,但本实施方式中,在实文件的文件大小发生了变更时,仅对中间装置3所缓存的存根管理表12内的实文件属性12C进行变更,并在CLOSE时写回存根文件7。
通过这样,无需每次都进行文件服务器5(一次存储器)的改写作业,从而能够高速传输。另外,上述中间装置3的处理,可以通过构成中间装置3的计算机所执行的程序来实现。
<属性GET类命令(通过文件ID指定对象)>
图7为表示在用属性GET类发出通过文件ID指定对象的命令的情况下的处理顺序的流程图。中间装置3中,将来自客户端1的属性GET请求(GETReq(FID)),发送给文件服务器5(一次存储器)(步骤121)。
中间装置3,通过属性GET请求(GETReq(FID))的文件ID(FID)检索存根文件ID表11(步骤122),并判断是否是存根文件(步骤123)。
中间装置3,在步骤123的判断结果显示不是存根文件的情况下(步骤123的否分支),将来自文件服务器5(一次存储器)的应答(GETResp),原样转发给客户端1(步骤125)。
另一方面,中间装置3,在步骤123的判断结果显示是存根文件的情况下(步骤123的是分支),将应答(GETResp(属性))中所含有的文件属性,改写至存根管理表12内的实文件属性12C(步骤124)后,将应答(GETResp(属性))转发给客户端(步骤125)。
图7中,虽然如果根据属性GET请求(GETReq(FID))中所包含的文件ID进行检索,可以看作中间装置3不需要向文件服务器5(一次存储器)发送属性GET请求(GETReq(FID)),但由于客户端1的访问权检查等处理由文件服务器5(一次存储器)进行,因此中间装置3必需将属性GET请求(GETReq(FID))发送给文件服务器5(一次存储器),并且如果来自文件服务器5(一次存储器)的应答错误,必需保持错误原样回发给客户端。
<属性GET类命令(通过路径指定对象)>
图8为表示用属性GET类发出通过路径名指定对象的命令的情况下的处理顺序的流程图。
中间装置3,将来自客户端1的属性GET请求(GETReq(PATH)),发送给文件服务器5(一次存储器)(步骤131)。
由于来自文件服务器5(一次存储器)的应答(GETResp(属性))中含有文件属性,因此中间装置3判断该文件属性是否是存根文件属性(步骤132),如果不是存根文件(步骤132的否分支),则向客户端1原样转发应答(GETResp)(步骤137).
中间装置3,在属性是存根文件属性的情况下(步骤132的是分支),打开文件服务器5(一次存储器)的存根文件7,对其内容实施READ后关闭存根文件7(步骤133)。
中间装置3确认所读出的开头的幻数(参照图3),判断是否是存根文件(步骤134)。如果不是存根文件(步骤134的否分支),中间装置3便将应答(GETResp)原样转发给客户端。
如果是存根文件(步骤134的是分支),中间装置3生成存根管理表12(步骤135),将应答(GETResp(属性))的文件属性,替换为存根文件7的实文件属性7B(步骤136),并转发给客户端1(步骤137)。
由于步骤135中的存根管理表的生成处理,是作为以后访问同一个文件时的缓存来生成的,因此也有可能不执行。
<属性SET类命令(通过文件ID指定对象)>
图9为表示用属性SET类发出通过文件ID指定对象的命令的情况下的处理顺序的流程图。属性SET类与GET类不同,若原样转发给文件服务器5(一次存储器),在是存根文件的情况下,会改写存根文件属性,结果导致中间装置3无法识别存根文件。因此,本实施方式中,必需先进行存根文件判断之后再进行转发。
首先,中间装置3,从客户端1接收到属性SET请求(SETReq(FID))之后(步骤141),与READ/WIRTE请求一样,通过存根文件ID检索存根文件ID表11(步骤142),在不是存根文件的情况下(步骤143的否分支),向文件服务器5(一次存储器)原样转发该属性SET请求。
在是存根文件的情况下(步骤143的是分支),中间装置3对存根文件ID表11的二次存储器FID(11B)是否有效(是否有二次文件ID)进行检查(步骤144),在有效的情况下(步骤144的是分支),中间装置3将替换属性至二次存储器FID(11B)的属性SET请求(SETReq(FID2)),发送给文件服务器6(二次存储器),并接收来自文件服务器6(二次存储器)的应答(SETResp)(步骤147)。
在应答(SETResp)为属性SET成功的情况下,改写存根管理表12内的实文件属性12C(步骤148),并将应答(SETResp)转发给客户端(步骤149)。
另一方面,在二次存储器FID(11B)无效的情况下(步骤144的否分支),中间装置3,向文件服务器6(二次存储器)发送OPEN请求(OPENReq(PATH2)),对二次存储器的文件路径名(12B))实施OPEN(步骤145),并将来自文件服务器6(二次存储器)的应答(OPENResp(FID2,属性))的文件ID(FID2),注册到存根文件ID表的二次存储器FID(11B)中(步骤146)。此后,与二次存储器FID(11B)有效的情况一样,将属性SET请求(SETReq(FID2))发送给文件服务器6(二次存储器)(步骤147),改写存根管理表12内的实文件属性12C(步骤148),并转发给客户端(步骤149)。
<属性SET类命令(通过路径名指定对象)>
图10为表示用属性SET类发出通过路径名指定对象的命令的情况下的处理顺序的流程图。这种情况下,也和对照图9所说明的顺序一样,在发送之前必需先进行存根文件判断。与图9的不同点在于,由于没有生成存根文件ID表11,因此实际上访问文件服务器5(一次存储器)来进行判断。
首先,中间装置3,从客户端1接收到属性SET请求(SETReq(PATH,属性))之后,使用该路径名向文件服务器5(一次存储器)发送属性GET请求(GETReq(属性))(步骤151)。中间装置3,判断来自文件服务器5(一次存储器)的应答(GETResp(属性))的属性是否是存根文件属性(步骤152),并在不是存根文件的情况下(步骤152的否分支),向文件服务器5(一次存储器)转发属性SET请求(SETReq(PATH,属性)),并且将来自文件服务器5(一次存储器)的应答(SETResp)转发给客户端1(步骤159)。
在是存根文件属性的情况下(步骤152的是分支),中间装置3为了得到存根识别用幻数7A,通过该路径名对文件服务器5(一次存储器)实施OPEN,并对文件开头实施READ、实施CLOSE(步骤153)。
如果不是存根识别用幻数7A(步骤154的否分支),由于不是存根文件,因此中间装置3将属性SET请求(SETReq(PATH,属性))发送给文件服务器5(一次存储器),并将来自文件服务器5(一次存储器)的应答(SETResp)转发给客户端1(步骤159)。
在确认是存根文件的情况下(步骤154的是分支),中间装置3,首先向文件服务器5(一次存储器)发送属性SET请求(SETReq(PATH,属性&stub))(步骤155)。此时,对实施SET的属性,嵌入存根文件属性stub进行发送。通过这样,便不会丢失存根文件属性。
之后,为了改写存根文件7内的实文件属性,中间装置3对存根文件7实施OPEN,并将实文件属性向存根文件7实施WRITE之后,实施CLOSE(步骤156)。
在通过文件ID指定对象的属性SET类命令的情况下,由于已经被从客户端1打开(OPEN),因此中间装置3中,生成有存根管理表12,属性的变更可只反映在存根管理表12中,并在从客户端1接收到CLOSE时进行反映,而在通过路径名指定对象的属性SET类命令的情况下,由于没有打开,因此不存在存根管理表,必需反映在存根文件7内的实文件属性7B中。
之后,中间装置3,向文件服务器6(二次存储器)发送属性SET请求(SETReq(PATH,属性))(步骤157),并接收来自文件服务器6(二次存储器)的应答(SETResp),转发给客户端1(步骤158)。
<READDIR、FIND类命令(通过路径名指定对象)>
图11为表示READDIR·FIND类命令的情况下的处理顺序的流程图。
首先,中间装置3从客户端1接收到FIND类请求(FINDReq(PATH))之后,发送给文件服务器5(一次存储器)(步骤161)。中间装置3,判断来自文件服务器5(一次存储器)的应答(FINDResp(属性))中所包含的属性是否是存根文件属性(步骤162),如果不是存根文件(步骤162的否分支),便原样将应答(FINDResp(属性))转发给客户端1(步骤168)。
另一方面,在是存根文件属性的情况下(步骤162的是分支),中间装置3,检索存根管理表12(步骤163),在检索的结果显示存在的情况下(步骤164的是分支),将应答(FINDResp(属性))的属性,改写为实文件属性12C(步骤167),并将改写该属性的应答转发给客户端1(步骤168)。
在步骤163中的存根管理表12的检索结果显示没有找到的情况下(步骤164的否分支),中间装置3为了确认存根识别用幻数7A,对文件服务器5(一次存储器)实施OPEN、READ、CLOSE(步骤165)。
如果该结果(读出结果)显示是存根文件7(步骤166的是分支),中间装置3便改写属性(步骤167),如果不是存根文件7(步骤166的否分支),便实施对客户端1的应答转发处理(步骤168)。此时,为了准备以后也会受到来自客户端的FIND类访问,可生成好存根管理表12。
<CLOSE(通过文件ID指定对象)>
图12为表示发出CLOSE命令的情况下的处理顺序的流程图。
中间装置3,从客户端1接收到CLOSE请求(CLOSEReq(FID))之后,取出文件ID后检索存根文件ID表11(步骤171)。
如果文件ID(FID)不存在于存根文件ID表11中(步骤172的否分支)中,由于不是存根文件,因此中间装置3将CLOSE请求(CLOSEReq(FID)),转发给文件服务器5(一次存储器),并将应答转发给客户端1。
另一方面,在存在存根文件ID表11的情况下(步骤172的是分支),由于得知是存根文件,因此,中间装置3首先为了关闭(COLSE)存根文件7,向文件服务器5(一次存储器)发送CLOSE请求(CLOSEReq(FID))(步骤173)。
由于如果存根文件ID管理表11的二次存储器FID(11B)有效(步骤174的是分支),实文件8被打开,因此,中间装置3发送关闭文件服务器6(二次存储器)的实文件8的CLOSE请求(CLOSEReq(FID2))(步骤175)。
由于有时候在OPEN中有WIRTE操作,使得文件大小或属性变化(步骤176的是分支),这种情况下,中间装置3打开存根文件7,改写好内部的实文件属性7B(步骤177的OPEN-WIRTE-CLOSE)。
最后,中间装置3向客户端1回发应答(CLOSEResp)(步骤178)。另外,参照图7至图13所说明的中间装置3的处理,也可以通过构成中间装置3的计算机所执行的程序来实现。
接下来,对让通常文件成为存根文件时的动作进行说明。图13为用于说明从文件服务器5(一次存储器)向文件服务器6(二次存储器)移动文件,从而进行存根文件化的流程的图。
首先,中间装置3将文件从文件服务器5(一次存储器)复制到文件服务器6(二次存储器)(步骤1)。在此过程中进行控制,例如若客户端对对象文件进行访问,则中止复制,在一定时间之后,再恢复复制。
如果复制完成,中间装置3便停止客户端1对对象文件的访问(步骤2)。访问的停止的方法,可以使用:
·将请求撤销(drop)的方式,或
·将请求暂时入队的方式
等。不管实施哪个方式,都能够不让客户端1对文件服务器5的对象文件的访问到达。在访问停止期间,中间装置3将文件服务器5(一次存储器)的对象文件改写为存根文件(步骤3)。
之后,恢复停止的访问(步骤4)。虽然停止访问的期间,是中间装置3改写为存根文件的时间,但由于存根文件7的大小非常小几乎所有的情况下通过一次的WRITE和属性SET便完成,因此其只需要非常短的时间。
接下来,对从存根文件往通常文件恢复时的动作进行说明。图14为表示从文件服务器6(二次存储器)向文件服务器5(一次存储器)恢复实文件,并删除存根文件的流程的图。
将实文件从文件服务器6(二次存储器)覆盖复制在文件服务器5(一次存储器)的存根文件上后,便不再是存根文件,在此时有来自客户端1的访问的情况下无法判断为存根文件。因此存在的问题是,会在复制中让客户端1发现半截的文件。
为了避免该问题,存在一种方式,即在复制中停止客户端1对对象文件的访问。但是,该方式中,在文件大小较大等情况下,停止客户端1的访问的期间非常长,会对客户端1造成影响。
为了避免该问题,实现不对客户端造成影响的写回,从文件服务器6(二次存储器)向文件服务器5(一次存储器)的临时区域,实施实文件的复制(步骤1)。
此期间如果从客户端访问对象文件,由于存根文件7仍原样保留,因此可以通过以上所说明的方式来由中间装置3进行转发。
向临时区域的复制完成后,停止中间装置3对对象文件的访问(步骤2)。
之后,由中间装置3通过RENAME命令将临时区域的实文件与存根文件7置换(步骤3)。
之后,通过中间装置3恢复客户端1对对象文件的访问(步骤4)。
该方式中,停止客户端1的访问的期间是RENAME命令的时间,同一文件系统内的RENAME命令,通常只是i节点表的更替,只需要非常短的时间。因此,能够几乎不给客户端1造成影响地进行回写。另外,上述中间装置3的处理,可以由构成中间装置3的计算机所执行的程序来实现。
接下来,对NFS协议的情况下的实施方式进行说明。与CIFS协议不同,NFS协议是不在网络上发出OPEN与CLOSE的协议。在这种协议的情况下,不使用以上述OPEN为契机生成表的流程。与CIFS的情况一样,使用存根文件来实现。存根文件的内容也相同。
CIFS中,文件ID是只在从客户端1的OPEN到CLOSE之间使用的临时ID,而NFS中,使用的是能够区分所有的文件的称作文件柄(file bundle)的ID。
客户端1,在LOOKUP命令中,加入上层目录的文件柄和希望搜索的文件名后发送给服务器,作为应答,获得文件的文件柄。
之后,使用该文件柄来进行READ或WRITE。不明确进行CLOSE。
因此,中间装置3中,取代文件ID,表保持文件柄,并判断客户端的READ·WIRTE命令中所包含的文件柄是否是存根文件。
由于若让表保持所有存根文件的文件柄,则表会过大,因此以LOOKUP为契机生成表,如果某个程度的时间内没有访问,则进行从表中删除的处理。
图15为表示NFS情况下的由中间装置3保持的表之一例的图。虽然存根管理表12,与CIFS的情况下相同,但取代存根文件ID表11,保持存根文件柄表13。其内容,取代一次存储器文件ID11A与二次存储器文件ID11B,装入一次存储器文件柄13A与二次存储器文件柄13B。
使用图16,对本实施例的动作进行说明.LOOKUP请求(LOOKUPReq(文件名))从客户端1到达中间装置3后,中间装置3转送给文件服务器5(一次存储器)(181),监视应答中所包含的文件属性,并判断文件是否是存根文件7.
如果是存根文件属性(通过变更时刻、文件大小来判断),则实际读取文件开头并确认幻数。如果是存根文件,则在中间装置内生成存根文件柄表13与存根管理表12(步骤182)。
对客户端1,将来自文件服务器5(一次存储器)的应答的属性替换成实文件属性12C后,转发给客户端。存根文件柄表13将文件柄缓存起来以便能够检索,从而能够高速进行检索。
之后,如果中间装置接收到来自客户端的READ或WRITE(步骤183),便对所包含的文件柄是否存在于存根文件柄表13中进行检索(步骤184)。
在是存根文件的情况下,转发给文件服务器6(二次存储器)(步骤185)。另外,上述的中间装置3的处理,可以通过构成该中间装置3的计算机所执行的程序来实现。
在首个READ或WRITE到达时,将根据存根文件7的二次存储器实文件路径名7C、实施LOOKUP所得到的文件柄,装入到存根文件柄表13的二次存储器文件柄13B中。
在以后的READ或WRITE中,更替成存根文件柄表13内的二次存储器文件柄13B后,转发给文件服务器6(二次存储器)。
在GETATTR那样的、不接触实数据只获取属性的命令的情况下,不访问文件服务器6(二次存储器),而是转发给文件服务器5(一次存储器),并根据存根管理表12变更应答的属性后进行转发。
可构成为,在文件ID或文件柄中,加入表示是存根文件的识别符。
在CIFS协议的情况下,在OPEN时判断是否是存根文件,如果是存根文件,则在返回给客户端的文件ID中加入存根文件识别符。通过这样,要在后续的READ或WRITE时检索存根管理表,只需要检索添加有存根文件识别符的文件ID即可,不需要全部与存根管理表进行比较。
在NFS协议的情况下,在LOOKUP应答的文件柄中加入存根识别符。通过这样,在后续的READ或WRITE时,只对添加了存根识别符的请求检索存根管理表,其他的请求不需要检索存根管理表。通过这样,能够减轻中间装置的处理,进行高速传输。这种情况下,在存根文件生成或存根文件删除时,在已经将没有添加存根识别符的文件ID或文件柄传输给了客户端的情况下,会产生问题。为了进行应对,在存根文件生成或删除的前后,必须对所有的请求检索存根管理表。为了简化处理,还可以对客户端进行识别,在能够识别出已经传输了没有添加存根识别符的文件ID或文件柄的客户端的情况下,对来自除此之外的客户端的请求,实施不检索存根管理表的处理。
存根文件中不仅仅是二次存储器的路径名,还可以为添加有以下信息的形态。
·可以在使用多个二次存储器路径名的世代管理存根文件的内部,加入多个二次存储器路径名,进行文件的版本管理。在某个时刻,复制二次存储器的实文件,并将复制目的地的路径名加入到存根文件中。如果客户端进行访问,则访问存根文件内的最新的实文件。通过这样,即使在不具有快照功能等特殊功能的文件服务器中,也能够容易地进行世代管理。与单单复制文件进行保存不同,能够向客户端隐藏世代管理,是不会不当更新前世代的文件的系统,具有能够保障不被篡改的优点。
·可以由中间装置3记述附加进行的处理,并由中间装置3对每个文件进行不同的处理.也即,存根文件中记述有中间装置3所进行的处理,在客户端进行访问时,中间装置3按照存根文件内的记述进行处理.以往的构成中,为了对每个文件进行不同的处理,需要将文件与处理的关系构成为表,并另行保存起来.与此相对,根据本发明,通过使用存根文件,能够嵌入到文件系统内部,从而不需要另行设置表.因此,不需要每次访问都检索表,从而能够实现处理的高速化、简单化.
图17为表示上述中间装置3的内部构成的一例的图。如图17所示,中间装置3具有:包转发部14、存根文件判断部15、服务器访问部16、属性变更部17、以及具有参照图4所说明的存根文件ID表11以及存根管理表12的表管理部18。与客户端1以及文件服务器5、6之间的通信,经包转发部14来进行。包转发部14,对客户端1与文件服务器5、6之间的通信包的状态进行管理,并根据需要,在存根文件判断部15、服务器访问部16以及属性变更部17之间,进行处理的交接。存根文件判断部15,从包转发部14接收包,判断该处理是否是对存根文件进行的。存根文件判断部15,查询表管理部18,或请求服务器访问部16实施访问文件服务器5的控制。服务器访问部16,为了判断存根文件而访问文件服务器5,除此之外还对用于存根文件化或通常文件化的访问等进行控制。通过存根文件判断部15所进行的是否是存根文件的判断,按照上述实施例中所说明的方法(属性信息、幻数、其他)来进行。属性变更部17,从包转发部14接收包,并查询表管理部18来进行包内的文件属性的变更。
虽然上述实施例中,对在对应存根文件存在1个实文件的层级存储器系统中,在存根文件中存储有实文件的信息(路径名等)的例子进行了说明。但本发明当然并不仅限于1个存根文件与1个实文件相对应(1∶1对应)的形式。下面,对构成为1个存根文件中保存有多个实文件的信息等的系统的实施例进行说明。通过在1个存根文件中保存多个实文件的信息,能够实现与层级存储器系统不同的功能,实现新的附加价值。
再有,上述的实施例中,中间装置向客户端提供一种使得下属的多个文件服务器(文件系统层、存储装置)好像是1个文件系统的文件服务,而以下,对在多个据点设置文件服务器,并让1个据点的客户端能够经中间装置访问多个据点的文件服务器的系统的实施例进行说明。分散在多个据点中设置文件服务器,对应于各个据点设置中间装置,不同的据点的中间装置之间,例如经广域网互相通信,1个据点的客户端不但能够访问1个据点的文件服务器,还能够经其他据点的中间装置访问其他据点的文件服务器,将广域分散的多个文件系统虚拟化,使得能够实现一种让客户端不会发现文件的存在据点(也即文件所在的场所)的文件服务。
首先,作为本发明的另一实施例,对使用存根文件的最大文件大小的扩大进行说明。NAS等中,根据安装的文件系统层,对最大文件系统大小、最大文件大小有限制。在HPC(High Performance Computing:高性能计算机)等中,需要生成上述限制以上的文件。因此,本发明可以使用存根文件来扩大文件的最大大小。
图18为用来说明本发明的另一实施例的图.参照图18,1个文件由多个分割文件(图18中是两个分割文件#1、#2)构成.两个分割文件#1、#2具有重叠区域.图18中所示的例子中,设分割文件是NAS的最大文件大小2TB(吉字节),由两个分割文件#1、#2构成的文件的文件大小大约为4TB左右.这里,如果设读/写访问的最大大小为16MB(兆字节),则分割文件#1的2TB的地址空间的从末尾向开头侧的16MB,与分割文件#2的从开头起的16MB互相重叠,成为重叠区域.这种情况下,在读写访问地址小于2TB-16MB的情况下,是对分割文件#1的访问,在读写访问地址大于2TB-16MB的情况下,是对分割文件#2的访问.
在没有设置重叠区域的情况下,例如在读访问地址大于2TB-16MB,访问分割文件#1的情况下,由于一次的读访问是16MB,因此在执行该读访问时,要读取下个分割文件#2的开头区域的数据。另一方面,根据本实施例,例如若读访问地址(开头地址)大于2TB-16MB,便从分割文件#2的该地址读取16MB份。这样,通过在相邻的分割文件之间设置彼此重叠的重叠区域,能够让执行1次的读/写访问时,不会跨越多个分割文件。
向分割文件#1与#2的重叠区域的数据写入,可以实施Dual Call(写入的两次调用),或向分割文件#1、#2的一方的重叠区域写入数据之后进行复制,来使其同步。通过这样,让分割文件#1、#2的重叠区域的数据相一致。虽然同步的量确实带来些损耗(overhead),但由于与最大文件大小2TB相比,最大读/写大小16MB非常小,因此损耗的影响非常小。
接下来,对通过本发明的一个实施例,使用存根文件来扩大最大文件大小的方法进行说明。图19为说明本发明的一个实施例的图。作为前述的存根文件内存储的信息,存储有实文件的路径名、多个分割文件#1~#3的路径名。再有,图19所示的例子中,相邻的分割文件#1、#2中设有重叠区域,相邻的分割文件#2、#3中也设有重叠区域。
图20为说明本发明的一个实施例的图。在原文件(不是分割文件)的文件大小超过了预先设定的阈值的情况下,进行存根化并生成分割文件#1。本实施例中,分割文件的生成,优选通过“RENAME”(变更名称)来进行。分割文件#1,设置在与存根文件相同的文件系统内。在实施存根文件化的时刻,文件大小超出TB(吉字节),并复制到其他文件系统中的情况下,需要大量时间。在通过文件的“RENAME”来进行存根化的情况下,不需要文件数据的复制。分割文件#2之后,可以设置在其他文件系统内。
上述实施例的系统中,存根文件在1个据点、1个中间装置内使用。下面,对多个据点、多个中间装置间互相参照存根文件的系统结构(乘坐“互相参照模型”)进行说明。
图21为说明本发明的另一实施例的构成的图,是用来说明互相参照模型的图。由客户端1、NAS交换机(中间装置)3、以及NAS(文件服务器)5构成的多个据点,经广域网2相连接。据点A的NAS文件系统的存根文件B,参照据点B的NAS文件系统的实文件B,据点B的NAS文件系统的存根文件A,参照据点A的NAS文件系统的实文件A。
作为存根文件与实文件的配置方法,可以根据访问频度的历史信息等、访问前后关系,将访问得较多的数据,设置在自己的文件系统中(本地化)。
在是被据点A、B双方均访问的文件的情况下,实文件设置在访问频度较高的据点。图21中所示的例子中,实文件A,由于从据点A访问的频度,比从据点B访问的频度高,因此设置在据点A中。实文件B,由于从据点B访问的频度,比从据点A访问的频度高,因此设置在据点B中。
对于存根文件与实文件而言,实数据总是保持最新的状态。另外,存根文件的信息可非同步更新,也可以总是保持最新的状态。
接下来,对在多个节点实施所带来的匹配性的管理进行说明.作为文件数据的匹配性,使用标准协议的锁定机构来保证匹配性.在从存根文件侧进行访问的情况下,锁定存根文件与实文件.另一方面,在从实文件侧进行访问的情况下,只锁定实文件.
本实施例中,在从存根文件侧发生更新的情况下,保持与实数据之间的匹配性。在从实数据侧发生更新的情况下,非同步更新存根文件。
图22为表示图21所示的多个据点的分散系统中的读、写类处理流程的图,是表示发生了来自存根侧的更新的情况下的顺序的顺序图。虽然没有特别限制,但以下以设置在NAS(Network Attached Storage)与客户端(Client)之间的NAS作为中间装置为例进行说明。这里,设存根位于自据点(例如图21的据点A)的NAS中,实数据位于他据点(例如图21的据点B)的NAS中。
对照图22,客户端(Client)向自据点的NAS交换机(switch)发出OPEN请求,自据点的NAS交换机,按照上述实施例中所说明的检查方法(属性、固定长度的文件大小),对下属的NAS的相应文件是否是存根文件进行检查(存根?)。在是存根文件的情况下,自据点的NAS交换机,从下属的NAS中读出该文件,如前所述,例如根据文件开头的幻数等,确认是否是存根文件。如果确认是存根文件(存根确定),便向他据点的NAS交换机发送OPEN请求。如果他据点的NAS的实文件OPEN成功,则他据点的NAS交换机,向自据点的NAS交换机回发应答(Resp),另外,锁定他据点的NAS的实文件(LOCK)。
从自据点的NAS交换机接收到OPEN请求的成功应答(Resp)的客户端,将READ请求发送给自据点的NAS交换机,自据点的NAS交换机经广域网,向他据点的NAS交换机发送READ请求,他据点的NAS交换机,将从下属的NAS中读出的数据(DATA),发送给自据点的NAS交换机。自据点的NAS交换机,将读出数据转发给客户端。
接收到读出数据的客户端,将CLOSE请求发送给自据点的NAS交换机,自据点的NAS交换机,经广域网向他据点的NAS交换机发送CLOSE请求,他据点的NAS交换机,进行下属的NAS的实文件的UNLOCK处理。之后,他据点的NAS交换机,将CLOSE请求的应答(Resp)回发给自据点的NAS交换机,自据点的NAS交换机,对自据点的NAS的存根进行CLOSE处理,将其应答(CLOSE Resp)回发给客户端。从他据点NAS交换机向自据点NAS交换机的各个应答的转发,在据点之间同步传输。
图23为表示读、写类处理流程的图,是表示产生了来自实文件侧的更新的情况下的顺序的顺序图。设实数据位于自据点(图21的据点A)的NAS中,存根位于他据点(图21的据点B)的NAS中。
客户端将OPEN请求发送给自据点的NAS交换机,自据点的NAS交换机,打开(LOCK)自据点的NAS的文件(实文件),将其应答(OPENResp)返回给客户端。
客户端进行向实数据的数据写入。也即将WRITE请求经NAS交换机发送给据点内的NAS。写入结束之后,客户端发出CLOSE请求,经NAS交换机发送给下属的NAS,进行实文件的CLOSE处理。之后,将该应答(CLOSEResp)返回给客户端。自据点的NAS交换机,对上述WRITE处理导致的实文件的属性变更(文件大小的变更),向保存有存根文件的他据点的NAS所对应的NAS交换机,发送大小更新信息。在自据点的NAS交换机中,向他据点的NAS交换机的大小更新信息的发送,在CLOSE处理之后进行,通过据点间的非同步传输来进行。
他据点的NAS交换机,更新下属NAS文件系统内的存根文件中所保存的实文件的文件大小信息,将其应答返回给自据点NAS交换机。另外,在读访问的情况下,由于实文件的大小信息等不发生变更,因此不进行大小信息更新请求的发送。
图24为表示本实施例中的文件系统更新(文件的删除、生成)处理的例子的图,是表示产生了来自存根文件侧的更新的情况下的顺序的顺序图。本例中,设存根位于自据点的NAS中,实数据位于他据点的NAS中。
客户端将删除(DELETE)请求发送给自据点的NAS交换机,自据点的NAS交换机,检查是否是存根,在是存根的情况下,向他据点NAS交换机发送DELETE请求。他据点的NAS交换机,向其下属的NAS的文件系统发送DELETE请求,使得该实文件(在存根文件中通过路径名指定)被删除。他据点的NAS交换机,将实文件的删除的应答回发给自据点的NAS交换机,自据点的NAS交换机,在该删除(DELETE)处理成功的情况下,指示删除自据点的NAS的文件系统内的存根。之后,将DELETE请求的应答(DELETE Resp)返回给客户端。
从自据点的NAS交换机向他据点的NAS交换机的实文件的DELETE请求的发送、从他据点NAS交换机向自据点NAS交换机的应答的发送、以及向自据点的NAS的DELETE请求的发送及其应答的返回,在将删除的应答返回给客户端之前进行(在据点之间同步转发)。另外,关于在目录下生成文件,或生成目录等的操作,需要事先决定存根侧还是实数据侧。
图25为表示本实施例中的文件系统更新(文件的删除、生成)处理的另一例的图,是表示产生了来自实数据侧的更新的情况下的顺序的顺序图。设存根位于他据点的NAS中,实数据位于自据点的NAS中。
客户端向自据点的NAS交换机发出DELETE请求,自据点的NAS交换机,指示下属的NAS进行实数据的删除,如果删除成功,则向客户端返回DELETE请求的应答(DELETE Resp)。接下来,向他据点的NAS交换机非同步转发存根的删除请求。存根的删除的应答,被从他据点NAS交换机发送给自据点NAS交换机。关于在目录下生成文件,或生成目录等的操作,需要事先决定是存根侧还是实数据侧。
接下来,对据点为N个(N≥2)的系统构成进行说明。为了进行匹配性管理,需要有来自所有保存实数据的据点的确认。在读/写类处理的情况下,在齐备了来自实数据据点的许可(LOCK处理成功)、与来自存根据点的存根文件的许可之后,初次执行读/写访问。
在文件系统更新类处理的情况下,通常,由实数据的据点确认处理成功后,将处理结果非同步传播给其他据点。
对本发明的再另一实施例进行说明。图26为示意表示缓存存根文件的系统的构成的图。图26中所示的构成,是在图21所示的构成中,至少在1个据点中缓存实文件。各个据点,具有客户端1、NAS交换机3、NAS5,不同据点的NAS交换机3通过广域网2通信连接,向客户端1提供文件访问服务,该文件访问服务不会令客户端1发现访问的是该客户端所属的据点还是其他据点。
本实施例中,在存在来自存根侧的读出和更新请求的情况下,通过在存根侧的据点缓存数据,提高了存根侧的访问性能。本实施例中,可以分别具有READ、WRITE缓存。
本实施例中,存根文件中包含作为缓存的指针的识别符。例如在图3中所示的存根文件的格式中,在二次存储器实文件路径名7C、与保留部7D之间,添加成为缓存的指针的识别符(未图示)。在访问存根化的数据时,将所读出的数据,保存在自据点的NAS的缓存区域51中。将成为缓存的指针31的识别符,表化保存在NAS交换机(中间装置)的存储部中。例如在图4的存根文件ID表的存根管理表中,可以保存缓存在缓存区域51中的实文件的位置信息。另外,NAS5的服务区域52,是保存文件数据的存储区域。
下次,在访问被缓存的存根文件时,在存根文件中所包含的缓存指针的识别符,被作为表存储在NAS交换机3中的情况下,为缓存命中,进行向NAS交换机(中间装置)下属的本地(自据点的)NAS的数据访问。另外,打开与锁定(LOCK),在存根文件侧与实文件侧均执行。
图27为说明本实施例中的WRITE缓存的动作的顺序图。参照图27,对本实施例的WRITE缓存动作进行说明。客户端将OPEN请求发送给自据点的NAS交换机,自据点的NAS交换机,对下属(自据点)的NAS的相应文件是否是存根文件进行检查,在是存根文件的情况下,读出该文件,通过对文件开头的幻数等进行检查,确认是否是存根文件。
在确认是存根文件的情况下,在该存根文件中所包含的缓存指针的识别符,被保存在NAS交换机的存储部(图26的31)中的情况下(缓存命中时)时,根据所缓存的存根文件的内容,对他据点的实文件进行OPEN处理。他据点的NAS交换机,锁定该实文件(LOCK),将OPEN请求的应答发送给自据点的NAS交换机。由于OPEN处理成功,且属性没有变更,因此自据点的NAS交换机,将OPEN请求的应答回发给客户端。另外在属性中存在差异的情况下,将存根文件从缓存中清除(cash out)。
客户端,接收来自自据点的NAS交换机的OPEN请求的应答(OPENResp),将WRITE请求发送给自据点的NAS交换机。自据点的NAS交换机,往缓存在缓存区域51中的实文件实施写入,另外,对缓存在NAS交换机中的存根文件实施变更(文件大小等的属性变更)。之后,将WRITE请求的应答(WRITE Resp)返回给客户端。
客户端将CLOSE请求发送给自据点的NAS交换机之后,自据点的NAS交换机,对缓存在自据点的NAS的缓存区域51中的实文件实施CLOSE处理,将其应答(CLOSE Resp)返回给客户端。之后,自据点的NAS交换机,向他据点的NAS交换机实施WRITE请求,他据点的NAS交换机,通过接收该WRITE请求,并进行向下属的NAS的实文件的写入,来保持数据的匹配性(缓存在某个据点的数据与其他据点的实文件的数据)。他据点的NAS交换机,将WRITE处理的应答,发送给自据点的NAS交换机。自据点的NAS交换机,向他据点NAS交换机发送CLOSE请求,他据点NAS交换机,对实文件实施UNLOCK。
图28为说明READ缓存的动作的顺序图。参照图28,对本实施例的READ缓存动作进行说明。客户端将OPEN请求发送给自据点的NAS交换机,NAS交换机对下属(自据点)的NAS的相应文件是否是存根文件进行检查,在是存根文件的情况下,读出该文件,通过对开头的幻数等进行检查,确认是否是存根文件。在确认是存根文件,且存根文件中所包含的缓存指针的识别符,保存在NAS交换机的表中的情况下(缓存命中)时,根据被缓存的存根文件的内容,对他据点的实文件进行OPEN处理。
他据点的NAS交换机,锁定(LOCK)该实文件,将OPEN请求的应答发送给自据点的NAS交换机。由于OPEN处理成功,且属性没有变更,因此自据点的NAS交换机,将OPEN请求的应答(OPEN Resp)回发给客户端。另外,在属性中存在差异的情况下,将存根文件从缓存中清除。
客户端接收OPEN请求的应答(OPEN Resp),将READ请求发送给自据点的NAS交换机。自据点的NAS交换机,根据所缓存的存根文件的内容,进行从自据点的NAS的缓存区域51(缓存有实文件数据)的读出,将其应答(读出数据)返回给客户端。
客户端将CLOSE请求发送给自据点的NAS交换机,自据点的NAS交换机,进行自据点的NAS的实文件的CLOSE处理,将其应答(CLOSE Resp)返回给客户端。
之后,自据点的NAS交换机,向他据点的NAS交换机发送CLOSE请求,他据点的NAS交换机,对下属的NAS的实文件实施UNLOCK。这样,在OPEN时,通过将存根文件所参照的其他据点的实文件缓存到自据点中,能够实现访问的高速化。另外,在某据点的NAS交换机的存储部(图26的31)中未存储有缓存指针的识别符的情况下(未命中),实施将其他据点的实文件转发给某据点的缓存区域51的处理,将缓存指针的识别符设置在NAS交换机的存储部(表)中,进行向上述的缓存的访问处理。
另外,虽然以上对将他据点的实文件,缓存在放置存根文件的自据点的缓存区域中的例子进行了说明,但本发明当然并不仅限于该结构。例如,可将他据点的实文件,缓存在接近放置存根文件的自据点的的据点中,或者如果有与在该他据点中放置存根文件来访问的形态相比,通信费用、通信状态、存储器容量等条件更好的据点,可在该据点的缓存区域中缓存实文件。存根文件中,存储指向所缓存的实文件以及去往他据点的实文件的访问路径的信息,根据存根文件可以进行对缓存区域的实文件的访问,或对他据点的实文件的访问。另外,将实文件缓存在缓存区域中的系统,并不仅限于图26所示的由多个据点构成的系统,例如对具有客户端、中间装置、多个文件系统的系统等来说,当然也能够应用。
接下来,对本发明的再另一个实施例进行说明。作为文件的存根化/非存根化的触发(trigger),可以根据存储器容量的阈值、限额(Quota)的设定值、以及访问频度等的访问前后关系的分析结果来使用指示等。
下面,对使用Quota的阈值的例子进行说明。文件服务器中,一般安装有以用户、组、目录作为管理单位,对装置中附带的存储器资源的使用量(使用量的分配称作“Quota”)进行限制的Quota系统,能够由管理者进行控制,让超出了预先设定的存储器使用限制量的数据写入不能够进行。用户管理型Quota,例如根据用户识别符(UNIX(注册商标)的UID)进行管理,Quota对用户所具有的文件或区块数进行设定。另外,组管理型Quota,根据组识别符(UNIX(注册商标)的GID)进行管理,Quota对组所具有的文件或区块数进行设定。还有,目录管理型Quota,对目录下的文件或区块数进行设定。另外,众所周知,Quota中包括硬Quota(硬限制:如果超出限制,进行写入则会出错)与软Quota(软限制:若为一定的宽限期间,超出仍可写入。一旦超出该限制,便会向管理者或用户发出警告)。用户管理的Quota结构体(记录),例如对应于用户识别符进行设定,包括:区块的硬限制与软限制、用户当前被分配的区块与文件数、在被作为硬限制取缔之前软限制剩余的对用户的警告次数等信息。Quota管理功能,例如:对限制存储器使用量的对象、及该限制量进行设定的功能;取得与设定的对象的存储器使用量(以设定的限制量为上限的使用率)相关的信息的功能等。Quota的设定管理,可以使用现有的NAS或文件服务器中所具有的管理界面。
虽然没有特别限制,但以下的实施例中,文件系统中的存根化的决定、存根化的实施控制,根据各个文件系统的最新的存储器使用量的取得、各个文件系统(文件服务器)中的Quota设定值的存储管理、存储器使用量与Quota设定值之间的关系,由与文件服务器通信连接的NAS交换机(中间装置)进行。
图29为说明本发明的一个实施例的图.在NAS交换机的Quarter设定值为100GB、硬限制为100GB、软限制为100GB、文件系统A为首要、文件系统B为次要的系统结构中,对各个文件系统的Quota的设定是固定的(硬限制=软限制).虽然没有特别限制,但NAS交换机,定期取得下属文件系统A、文件系统B的限额管理信息,在首要文件系统A的使用量,达到其限额设定值的70~90%以上的情况下,将一定容量存根化.
如图29(A)所示,文件系统A的Quota设定值,被设为30GB+α(其中,α为游量),文件系统B的Quota设定值,被设为70GB+α。第一次的调查结果显示,文件系统A的使用量为15GB。另外,在NAS交换机等中间装置(例如图2的3)中,文件服务器中的存储器使用量的监视,可以通过从中间装置对文件服务器定期进行的询问等来实施,从而取得存储器使用量,另外也可构成为,通过从文件服务器侧去往中间装置的中断等,来通知存储器使用量。
如图29(B)所示,在第二次存储器使用量调查的结果显示,文件系统A的使用量(25GB)达到Quota设定值(30GB+α;α为游量)的80%以上的情况下,将文件系统A的10GB存根化。存根化例如用参照图13等说明的顺序进行。
其结果如图29(C)所示,在将10GB存根化之后,文件系统A的使用量为15GB,文件系统B中存储有实文件,使用量变为10GB。
另外,本实施例中,根据文件系统的Quota设定值与存储器使用量的监视结果,在NAS交换机(中间装置)侧自动实施文件的存根化决定(存根化的候补的选择等)、以及存根化执行(从首要文件系统A向次要文件系统B的数据迁移)的控制。
即,本实施例中,由存根化实现的实文件向次要文件系统的移动等的数据迁移(data migration),经NAS交换机(中间装置)向客户端隐藏。另外,关于数据迁移的隐藏技术的详细内容,例如可以参照专利文献1等。另外,本实施例中,优选NAS交换机(中间装置),提供使多个文件系统在客户端看来好像是一个文件系统的文件服务。关于向客户端提供将多个文件系统作为1个伪文件系统(由目录树实现的管理)的文件访问服务的功能的实现,例如参照专利文献1等的记录。
基于上述存储器使用量的存根化的控制,当然也能够适用于参照图21所说明的多个据点的相互参照模型。这种情况下,在存根化中,可以根据访问前后文信息,在访问较多的据点设置实文件,在其他的据点中,设置存根文件。在这多个据点的构成中,也向客户端隐藏由存根化完成的数据迁移。
以上,虽然根据上述实施例对本发明进行了说明,但本发明当然并不仅限于上述实施例的构成,还包括在本发明的范围内,本领域技术人员所能够得到的各种变形、修正。

Claims (3)

1.一种控制器,其特征在于,具备:
判断机构,其在从客户端发出了对文件服务器的文件的访问请求时,接收对上述文件的访问请求,判断上述文件,是否记录有从上述文件服务器移动到其他文件服务器的实文件的位置信息且为保存在上述文件服务器中的存根文件;以及,
控制机构,其在是存根文件的情况下,在上述访问请求,需要对实文件的访问的情况下,根据上述存根文件的信息实施控制,访问上述其他文件服务器的实文件并向上述客户端返回应答,
上述存根文件内,存储有1个实文件的多个分割文件的位置信息,能够通过对应于1个实文件的上述存根文件,扩大上述1个实文件的最大文件大小。
2.一种存储器管理系统,其特征在于:
包括权利要求1所述的控制器,
所述控制器,在设置在存储器装置中的存根文件内,存储有多个分割文件的路径名,能够通过对应于1个实文件的上述存根文件,扩大上述1个实文件的最大文件大小,
上述多个分割文件,具有至少1对具备重叠的区域的分割文件。
3.如权利要求2所述的存储器管理系统,其特征在于:
上述重叠的区域,被设定为与读/写的数据量的最大大小相对应的值。
CN2005101254097A 2004-11-12 2005-11-14 控制器以及存储器管理系统 Expired - Fee Related CN1773510B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2004329209 2004-11-12
JP2004329209 2004-11-12
JP2004-329209 2004-12-11
JP2005059115 2005-03-03
JP2005059115A JP4349301B2 (ja) 2004-11-12 2005-03-03 ストレージ管理システムと方法並びにプログラム
JP2005-059115 2005-03-03

Publications (2)

Publication Number Publication Date
CN1773510A CN1773510A (zh) 2006-05-17
CN1773510B true CN1773510B (zh) 2010-05-05

Family

ID=36585280

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2005101254097A Expired - Fee Related CN1773510B (zh) 2004-11-12 2005-11-14 控制器以及存储器管理系统

Country Status (3)

Country Link
US (1) US7818287B2 (zh)
JP (1) JP4349301B2 (zh)
CN (1) CN1773510B (zh)

Families Citing this family (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005050386A2 (en) 2003-11-13 2005-06-02 Commvault Systems, Inc. System and method for performing a snapshot and for restoring data
US7853667B1 (en) * 2005-08-05 2010-12-14 Network Appliance, Inc. Emulation of transparent recall in a hierarchical storage management system
US7606844B2 (en) 2005-12-19 2009-10-20 Commvault Systems, Inc. System and method for performing replication copy storage operations
US7651593B2 (en) 2005-12-19 2010-01-26 Commvault Systems, Inc. Systems and methods for performing data replication
WO2007075587A2 (en) 2005-12-19 2007-07-05 Commvault Systems, Inc. Systems and methods for performing data replication
US8655850B2 (en) 2005-12-19 2014-02-18 Commvault Systems, Inc. Systems and methods for resynchronizing information
US7617262B2 (en) * 2005-12-19 2009-11-10 Commvault Systems, Inc. Systems and methods for monitoring application data in a data replication system
US7840618B2 (en) * 2006-01-03 2010-11-23 Nec Laboratories America, Inc. Wide area networked file system
KR100888593B1 (ko) * 2006-03-14 2009-03-12 삼성전자주식회사 컨텐츠 관리 방법 및 장치
US7836313B2 (en) * 2006-03-21 2010-11-16 Oracle America, Inc. Method and apparatus for constructing a storage system from which digital objects can be securely deleted from durable media
US8010555B2 (en) 2006-06-30 2011-08-30 Aperio Technologies, Inc. System and method for managing images over a network
US8086077B2 (en) 2006-06-30 2011-12-27 Aperio Technologies, Inc. Method for storing and retrieving large images via DICOM
JP5082310B2 (ja) * 2006-07-10 2012-11-28 日本電気株式会社 データ移行装置及びプログラム
US8726242B2 (en) 2006-07-27 2014-05-13 Commvault Systems, Inc. Systems and methods for continuous data replication
JP4837495B2 (ja) 2006-08-29 2011-12-14 株式会社日立製作所 記憶システム及びデータ管理移行方法
US7640406B1 (en) 2006-10-03 2009-12-29 Emc Corporation Detecting and managing orphan files between primary and secondary data stores for content addressed storage
US7685177B1 (en) 2006-10-03 2010-03-23 Emc Corporation Detecting and managing orphan files between primary and secondary data stores
US7603397B1 (en) * 2006-10-03 2009-10-13 Emc Corporation Detecting and managing missing parents between primary and secondary data stores
US7599971B1 (en) * 2006-10-03 2009-10-06 Emc Corporation Detecting and managing missing parents between primary and secondary data stores for content addressed storage
JP4841408B2 (ja) * 2006-11-24 2011-12-21 富士通株式会社 ボリューム移行プログラム及び方法
CA2705379C (en) 2006-12-04 2016-08-30 Commvault Systems, Inc. Systems and methods for creating copies of data, such as archive copies
WO2008080140A2 (en) 2006-12-22 2008-07-03 Commvault Systems, Inc. System and method for storing redundant information
US7840537B2 (en) 2006-12-22 2010-11-23 Commvault Systems, Inc. System and method for storing redundant information
JP2008181461A (ja) * 2007-01-26 2008-08-07 Hitachi Ltd Nas装置間でのデータ移行を制御する装置及び方法
JP4288525B2 (ja) 2007-02-16 2009-07-01 日本電気株式会社 ファイル共有システムおよびファイル共有方法
US8290808B2 (en) 2007-03-09 2012-10-16 Commvault Systems, Inc. System and method for automating customer-validated statement of work for a data storage environment
JP4931660B2 (ja) * 2007-03-23 2012-05-16 株式会社日立製作所 データ移行処理装置
JP2008250380A (ja) * 2007-03-29 2008-10-16 Kddi Corp コンテンツ配信装置、コンテンツ配信方法、及びプログラム
US9298417B1 (en) * 2007-07-25 2016-03-29 Emc Corporation Systems and methods for facilitating management of data
US8055864B2 (en) * 2007-08-06 2011-11-08 International Business Machines Corporation Efficient hierarchical storage management of a file system with snapshots
US8332375B2 (en) * 2007-08-29 2012-12-11 Nirvanix, Inc. Method and system for moving requested files from one storage location to another
JP5198018B2 (ja) * 2007-09-20 2013-05-15 株式会社日立製作所 ストレージサブシステム及び記憶制御方法
US8060709B1 (en) 2007-09-28 2011-11-15 Emc Corporation Control of storage volumes in file archiving
US8326805B1 (en) 2007-09-28 2012-12-04 Emc Corporation High-availability file archiving
US8918603B1 (en) * 2007-09-28 2014-12-23 Emc Corporation Storage of file archiving metadata
CN101408834B (zh) * 2007-10-10 2010-11-10 英业达股份有限公司 一种对实体储存设备进行数据读写的系统及方法
US8949192B2 (en) 2007-11-19 2015-02-03 International Business Machines Corporation Technique of controlling access to database
JP5258400B2 (ja) * 2008-06-06 2013-08-07 キヤノン株式会社 文書管理システム、文書管理方法、及びコンピュータプログラム
US9098495B2 (en) 2008-06-24 2015-08-04 Commvault Systems, Inc. Application-aware and remote single instance data management
US8484162B2 (en) 2008-06-24 2013-07-09 Commvault Systems, Inc. De-duplication systems and methods for application-specific data
US8166263B2 (en) 2008-07-03 2012-04-24 Commvault Systems, Inc. Continuous data protection over intermittent connections, such as continuous data backup for laptops or wireless devices
JP2010044571A (ja) * 2008-08-12 2010-02-25 Ntt Data Wave Corp データベース装置及びデータ管理方法ならびにそのプログラム
US9015181B2 (en) 2008-09-26 2015-04-21 Commvault Systems, Inc. Systems and methods for managing single instancing data
AU2009296695B2 (en) 2008-09-26 2013-08-01 Commvault Systems, Inc. Systems and methods for managing single instancing data
US8412677B2 (en) 2008-11-26 2013-04-02 Commvault Systems, Inc. Systems and methods for byte-level or quasi byte-level single instancing
US8204859B2 (en) 2008-12-10 2012-06-19 Commvault Systems, Inc. Systems and methods for managing replicated database data
US9495382B2 (en) 2008-12-10 2016-11-15 Commvault Systems, Inc. Systems and methods for performing discrete data replication
JP4670968B2 (ja) * 2009-01-22 2011-04-13 富士ゼロックス株式会社 情報管理プログラム及び情報管理システム
US20100191708A1 (en) * 2009-01-23 2010-07-29 International Business Machines Corporation Synchronous Deletion of Managed Files
JP5243991B2 (ja) 2009-02-18 2013-07-24 株式会社日立製作所 ストレージシステム、容量管理方法、および管理計算機
US20100235409A1 (en) * 2009-03-10 2010-09-16 Global Relay Communications Inc. System and method for managing data stored in a data network
JP2010225024A (ja) * 2009-03-25 2010-10-07 Hitachi Ltd ストレージ装置とそのファイル制御方法およびストレージシステム
US8401996B2 (en) 2009-03-30 2013-03-19 Commvault Systems, Inc. Storing a variable number of instances of data objects
US8578120B2 (en) 2009-05-22 2013-11-05 Commvault Systems, Inc. Block-level single instancing
CN101908009B (zh) * 2009-06-08 2014-02-19 鸿富锦精密工业(深圳)有限公司 文件备份与使用方法
US8930306B1 (en) 2009-07-08 2015-01-06 Commvault Systems, Inc. Synchronized data deduplication
JP5586892B2 (ja) * 2009-08-06 2014-09-10 株式会社日立製作所 階層化ストレージシステム及び階層化ストレージシステムにおけるファイルのコピー制御方法
US9239762B1 (en) * 2009-08-11 2016-01-19 Symantec Corporation Method and apparatus for virtualizing file system placeholders at a computer
US8452932B2 (en) 2010-01-06 2013-05-28 Storsimple, Inc. System and method for efficiently creating off-site data volume back-ups
JP4995296B2 (ja) * 2010-03-11 2012-08-08 株式会社日立製作所 計算機システムおよびキャッシュ制御方法
US8504517B2 (en) 2010-03-29 2013-08-06 Commvault Systems, Inc. Systems and methods for selective data replication
WO2011123471A1 (en) * 2010-03-30 2011-10-06 Commvault Systems, Inc. Stubbing systems and methods in a data replication environment
US8352422B2 (en) 2010-03-30 2013-01-08 Commvault Systems, Inc. Data restore systems and methods in a replication environment
US8725698B2 (en) 2010-03-30 2014-05-13 Commvault Systems, Inc. Stub file prioritization in a data replication system
US8504515B2 (en) 2010-03-30 2013-08-06 Commvault Systems, Inc. Stubbing systems and methods in a data replication environment
US8595440B2 (en) 2010-03-31 2013-11-26 Hitachi Solutions, Ltd. File server apparatus, management method of storage system, and program
US9026589B1 (en) * 2010-05-04 2015-05-05 Amazon Technologies, Inc. Stubbing techniques in distributed-services environments
EP2579157B1 (en) 2010-05-27 2016-12-07 Hitachi, Ltd. Local file server operative to transfer file to remote file server via communication network, and storage system including those file servers
WO2011150391A1 (en) 2010-05-28 2011-12-01 Commvault Systems, Inc. Systems and methods for performing data replication
JP5488225B2 (ja) * 2010-06-09 2014-05-14 富士通株式会社 データ管理システム、データ管理方法、及びデータ管理プログラム
WO2012011158A1 (en) * 2010-07-23 2012-01-26 Hitachi, Ltd. Storage system and method of controlling same
JP2012042997A (ja) * 2010-08-12 2012-03-01 I-O Data Device Inc 情報処理装置、プログラム、およびリンク作成方法
WO2012035574A1 (en) 2010-09-14 2012-03-22 Hitachi, Ltd. Server apparatus and control method of the same for migrating file based on user quota and file quota
US8577851B2 (en) 2010-09-30 2013-11-05 Commvault Systems, Inc. Content aligned block-based deduplication
US8578109B2 (en) 2010-09-30 2013-11-05 Commvault Systems, Inc. Systems and methods for retaining and using data block signatures in data protection operations
US8935492B2 (en) 2010-09-30 2015-01-13 Commvault Systems, Inc. Archiving data objects using secondary copies
US20120150818A1 (en) 2010-12-14 2012-06-14 Commvault Systems, Inc. Client-side repository in a networked deduplicated storage system
US9020900B2 (en) 2010-12-14 2015-04-28 Commvault Systems, Inc. Distributed deduplicated storage system
US8856073B2 (en) 2010-12-14 2014-10-07 Hitachi, Ltd. Data synchronization among file storages using stub files
WO2012081050A1 (en) * 2010-12-14 2012-06-21 Hitachi, Ltd. Failure recovery method in information processing system and information processing system
JP2012174113A (ja) 2011-02-23 2012-09-10 Hitachi Ltd ファイルストレージシステム及び記憶制御方法
US10666732B2 (en) 2011-03-21 2020-05-26 Iplcontent, Llc Systems and methods to provide digital amenities for local access
WO2012127526A1 (en) 2011-03-22 2012-09-27 Hitachi, Ltd. File server system and storage control method
TWI492086B (zh) * 2011-04-11 2015-07-11 D Link Corp Hide the file's real path for cloud processing
US8838721B2 (en) 2011-04-15 2014-09-16 Hitachi, Ltd. File sharing system and file sharing method
JP5751041B2 (ja) * 2011-06-17 2015-07-22 日本電気株式会社 ストレージ装置、ストレージ方法およびプログラム
WO2013014695A1 (en) * 2011-07-22 2013-01-31 Hitachi, Ltd. File storage system for transferring file to remote archive system
CN103858109B (zh) * 2011-10-28 2016-08-17 株式会社日立制作所 信息处理系统及使用该信息处理系统的文件恢复方法
US9195666B2 (en) * 2012-01-17 2015-11-24 Apple Inc. Location independent files
US9471578B2 (en) 2012-03-07 2016-10-18 Commvault Systems, Inc. Data storage system utilizing proxy device for storage operations
US9298715B2 (en) 2012-03-07 2016-03-29 Commvault Systems, Inc. Data storage system utilizing proxy device for storage operations
US9020890B2 (en) 2012-03-30 2015-04-28 Commvault Systems, Inc. Smart archiving and data previewing for mobile devices
US9342537B2 (en) 2012-04-23 2016-05-17 Commvault Systems, Inc. Integrated snapshot interface for a data storage system
WO2013171787A2 (en) * 2012-05-15 2013-11-21 Hitachi, Ltd. File storage system and load distribution method
US9251186B2 (en) 2012-06-13 2016-02-02 Commvault Systems, Inc. Backup using a client-side signature repository in a networked storage system
US9633022B2 (en) 2012-12-28 2017-04-25 Commvault Systems, Inc. Backup and restoration for a deduplicated file system
US9336226B2 (en) 2013-01-11 2016-05-10 Commvault Systems, Inc. Criteria-based data synchronization management
US9886346B2 (en) 2013-01-11 2018-02-06 Commvault Systems, Inc. Single snapshot for multiple agents
US9665591B2 (en) 2013-01-11 2017-05-30 Commvault Systems, Inc. High availability distributed deduplicated storage system
WO2014122733A1 (ja) * 2013-02-06 2014-08-14 株式会社日立製作所 計算機、データアクセス管理方法及び記録媒体
JP2014179066A (ja) * 2013-02-14 2014-09-25 Panasonic Corp ストレージ制御装置、ストレージシステム、およびストレージ制御方法
CN105593804B (zh) 2013-07-02 2019-02-22 日立数据系统工程英国有限公司 用于文件系统虚拟化的方法和设备、用于文件系统虚拟化的数据存储系统、以及用于数据存储系统的文件服务器
US9460097B2 (en) * 2013-07-02 2016-10-04 Hitachi Data Systems Engineering UK Limited Method and apparatus for migration of a virtualized file system, data storage system for migration of a virtualized file system, and file server for use in a data storage system
US9454532B2 (en) 2013-07-02 2016-09-27 Hitachi Data Systems Engineering UK Limited Method and apparatus for migration of a virtualized file system, data storage system for migration of a virtualized file system, and file server for use in a data storage system
US9398111B1 (en) * 2013-08-30 2016-07-19 hopTo Inc. File caching upon disconnection
US9632874B2 (en) 2014-01-24 2017-04-25 Commvault Systems, Inc. Database application backup in single snapshot for multiple applications
US9495251B2 (en) 2014-01-24 2016-11-15 Commvault Systems, Inc. Snapshot readiness checking and reporting
US9753812B2 (en) 2014-01-24 2017-09-05 Commvault Systems, Inc. Generating mapping information for single snapshot for multiple applications
US9639426B2 (en) 2014-01-24 2017-05-02 Commvault Systems, Inc. Single snapshot for multiple applications
US10324897B2 (en) 2014-01-27 2019-06-18 Commvault Systems, Inc. Techniques for serving archived electronic mail
US10380072B2 (en) 2014-03-17 2019-08-13 Commvault Systems, Inc. Managing deletions from a deduplication database
US9852026B2 (en) 2014-08-06 2017-12-26 Commvault Systems, Inc. Efficient application recovery in an information management system based on a pseudo-storage-device driver
US11249858B2 (en) 2014-08-06 2022-02-15 Commvault Systems, Inc. Point-in-time backups of a production application made accessible over fibre channel and/or ISCSI as data sources to a remote application by representing the backups as pseudo-disks operating apart from the production application and its host
US9774672B2 (en) 2014-09-03 2017-09-26 Commvault Systems, Inc. Consolidated processing of storage-array commands by a snapshot-control media agent
US10042716B2 (en) 2014-09-03 2018-08-07 Commvault Systems, Inc. Consolidated processing of storage-array commands using a forwarder media agent in conjunction with a snapshot-control media agent
US20160078060A1 (en) * 2014-09-12 2016-03-17 International Business Machines Corporation Providing Selective Access To A Database In A Size-Managed State
US9495111B2 (en) * 2014-10-10 2016-11-15 The Boeing Company System and method for reducing information leakage from memory
US9575673B2 (en) 2014-10-29 2017-02-21 Commvault Systems, Inc. Accessing a file system using tiered deduplication
US9448731B2 (en) 2014-11-14 2016-09-20 Commvault Systems, Inc. Unified snapshot storage management
US9648105B2 (en) 2014-11-14 2017-05-09 Commvault Systems, Inc. Unified snapshot storage management, using an enhanced storage manager and enhanced media agents
JP6319829B2 (ja) * 2015-02-19 2018-05-09 Necソリューションイノベータ株式会社 データ配置装置及びデータ配置方法
US10339106B2 (en) 2015-04-09 2019-07-02 Commvault Systems, Inc. Highly reusable deduplication database after disaster recovery
US10324914B2 (en) 2015-05-20 2019-06-18 Commvalut Systems, Inc. Handling user queries against production and archive storage systems, such as for enterprise customers having large and/or numerous files
US20160350391A1 (en) 2015-05-26 2016-12-01 Commvault Systems, Inc. Replication using deduplicated secondary copy data
US9766825B2 (en) 2015-07-22 2017-09-19 Commvault Systems, Inc. Browse and restore for block-level backups
US10061663B2 (en) 2015-12-30 2018-08-28 Commvault Systems, Inc. Rebuilding deduplication data in a distributed deduplication data storage system
WO2017126105A1 (ja) * 2016-01-22 2017-07-27 株式会社エーピーコミュニケーションズ ダウンロードシステム、通信装置、ダウンロード方法、及びコンピュータプログラム
US10296368B2 (en) 2016-03-09 2019-05-21 Commvault Systems, Inc. Hypervisor-independent block-level live browse for access to backed up virtual machine (VM) data and hypervisor-free file-level recovery (block-level pseudo-mount)
US10503753B2 (en) 2016-03-10 2019-12-10 Commvault Systems, Inc. Snapshot replication operations based on incremental block change tracking
JP6542721B2 (ja) * 2016-07-11 2019-07-10 日本電信電話株式会社 データ管理装置及びデータ管理方法
JP6231623B2 (ja) * 2016-07-19 2017-11-15 株式会社日立製作所 ファイルサーバ、情報システム、及び情報システムの制御方法
US10740193B2 (en) 2017-02-27 2020-08-11 Commvault Systems, Inc. Hypervisor-independent reference copies of virtual machine payload data based on block-level pseudo-mount
US10664352B2 (en) 2017-06-14 2020-05-26 Commvault Systems, Inc. Live browsing of backed up data residing on cloned disks
US10732885B2 (en) 2018-02-14 2020-08-04 Commvault Systems, Inc. Block-level live browsing and private writable snapshots using an ISCSI server
US11010258B2 (en) 2018-11-27 2021-05-18 Commvault Systems, Inc. Generating backup copies through interoperability between components of a data storage management system and appliances for data storage and deduplication
US11698727B2 (en) 2018-12-14 2023-07-11 Commvault Systems, Inc. Performing secondary copy operations based on deduplication performance
US20200327017A1 (en) 2019-04-10 2020-10-15 Commvault Systems, Inc. Restore using deduplicated secondary copy data
US11463264B2 (en) 2019-05-08 2022-10-04 Commvault Systems, Inc. Use of data block signatures for monitoring in an information management system
US11042318B2 (en) 2019-07-29 2021-06-22 Commvault Systems, Inc. Block-level data replication
US20210173811A1 (en) 2019-12-04 2021-06-10 Commvault Systems, Inc. Optimizing the restoration of deduplicated data stored in multi-node replicated file systems
JP2021096722A (ja) * 2019-12-18 2021-06-24 株式会社日立製作所 計算機システム及びデータのアクセス制御方法
US11687424B2 (en) 2020-05-28 2023-06-27 Commvault Systems, Inc. Automated media agent state management
CN114371811A (zh) * 2020-10-15 2022-04-19 伊姆西Ip控股有限责任公司 用于存储管理的方法、电子设备和计算机程序产品
US11809285B2 (en) 2022-02-09 2023-11-07 Commvault Systems, Inc. Protecting a management database of a data storage management system to meet a recovery point objective (RPO)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5564037A (en) * 1995-03-29 1996-10-08 Cheyenne Software International Sales Corp. Real time data migration system and method employing sparse files
US6278678B1 (en) * 1999-02-12 2001-08-21 Sony Corporation Editing apparatus, editing method, and recording medium
TW504619B (en) 1999-06-04 2002-10-01 Ibm Internet mail delivery agent with automatic caching of file attachments
JP2001222450A (ja) 2000-02-10 2001-08-17 Toshiba Corp 階層記憶装置
AUPR678401A0 (en) * 2001-08-02 2001-08-23 Singfield, Christian Network image server
US7136981B2 (en) * 2001-09-13 2006-11-14 Conocophillips Company Method and apparatus for creating a virtual storage volume with a file size independent of a file size limitation
KR20040053142A (ko) * 2001-09-26 2004-06-23 이엠씨 코포레이션 대형 파일들의 효율적 관리
JP3879594B2 (ja) * 2001-11-02 2007-02-14 日本電気株式会社 スイッチ方法、装置およびプログラム
JP2003150435A (ja) 2001-11-14 2003-05-23 Sony Corp ネットワークファイルシステム、フィルタ
CN100410931C (zh) 2002-07-11 2008-08-13 国际商业机器公司 用于扩展文件系统应用编程接口的方法
JP4322031B2 (ja) * 2003-03-27 2009-08-26 株式会社日立製作所 記憶装置

Also Published As

Publication number Publication date
CN1773510A (zh) 2006-05-17
JP2006164211A (ja) 2006-06-22
US7818287B2 (en) 2010-10-19
US20060129537A1 (en) 2006-06-15
JP4349301B2 (ja) 2009-10-21

Similar Documents

Publication Publication Date Title
CN1773510B (zh) 控制器以及存储器管理系统
US10958752B2 (en) Providing access to managed content
CN105324770B (zh) 有效读出副本
CN101535965B (zh) 用于提高存储管理系统的可伸缩性和可移植性的技术
CN101228523B (zh) 用于高速缓存网络文件系统的系统和方法
JP4568115B2 (ja) ハードウェアベースのファイルシステムのための装置および方法
CN102460439B (zh) 通过条带式文件系统中的容量平衡进行数据分布
CN100505762C (zh) 适用于对象网络存储的分布式多级缓存系统
US9110909B2 (en) File level hierarchical storage management system, method, and apparatus
CN103458023B (zh) 分布式闪存存储系统
CN1531303B (zh) 协议无关的客户端高速缓存系统和方法
CN103312624B (zh) 一种消息队列服务系统和方法
CN106021381A (zh) 一种云存储服务系统的数据访问/存储方法及装置
US20070038697A1 (en) Multi-protocol namespace server
EP1170657A2 (en) Computer system
CN103020257B (zh) 数据操作的实现方法和装置
CN109871367A (zh) 一种基于Redis和HBase的分布式冷热数据分离方法
CN101170416A (zh) 网络数据存储系统及其数据访问方法
JPS63201743A (ja) データ処理システム・ネットワークのためのキャッシング方法
CN110750507B (zh) 面向dfs的全局命名空间下的持久客户端缓存方法及系统
CN106775446A (zh) 基于固态硬盘加速的分布式文件系统小文件访问方法
CN107463447A (zh) 一种基于远程直接非易失内存访问的b+树管理方法
WO2004055675A1 (ja) ファイル管理装置、ファイル管理プログラム、ファイル管理方法およびファイルシステム
CN110321301A (zh) 一种数据处理的方法及装置
CN109299056B (zh) 一种基于分布式文件系统的数据同步方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100505

Termination date: 20101114