CN101051290A - Gns中的目录单位迁移 - Google Patents

Gns中的目录单位迁移 Download PDF

Info

Publication number
CN101051290A
CN101051290A CNA2006101687011A CN200610168701A CN101051290A CN 101051290 A CN101051290 A CN 101051290A CN A2006101687011 A CNA2006101687011 A CN A2006101687011A CN 200610168701 A CN200610168701 A CN 200610168701A CN 101051290 A CN101051290 A CN 101051290A
Authority
CN
China
Prior art keywords
server
identifier
file
migration
catalogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006101687011A
Other languages
English (en)
Other versions
CN100576189C (zh
Inventor
扬妻匡邦
中谷洋司
中村隆喜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of CN101051290A publication Critical patent/CN101051290A/zh
Application granted granted Critical
Publication of CN100576189C publication Critical patent/CN100576189C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/119Details of migration of file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0643Management of files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2206/00Indexing scheme related to dedicated interfaces for computers
    • G06F2206/10Indexing scheme related to storage interfaces for computers, indexing schema related to group G06F3/06
    • G06F2206/1012Load balancing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99932Access augmentation or optimizing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99956File allocation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

目前还未公开如下方法:在具有使用共同命名空间的多个服务器的存储系统中,从客户机透明地、以比文件系统精细的单位执行迁移的方法。本发明提供一种存储系统,其具有多个服务器、以及与所述多个服务器连接的盘子系统,在该存储系统中对所述盘子系统内的文件系统赋予在所述存储系统内唯一的第一识别符;对在所述文件系统内包含的目录中的至少一个目录赋予在所述存储系统内唯一的第二识别符;对在所述文件系统内包含的文件赋予在所述存储系统内唯一的第三识别符,所述服务器通过所述第二识别符和所述第三识别符,识别比赋予了所述第二识别符的所述目录下位的文件。

Description

GNS中的目录单位迁移
技术领域
本发明涉及在通过网络和客户机连接、存储客户机使用的数据的文件服务器或者网络附加存储(Network Attached Storage,NAS)中,用于向多个服务器分散负荷的技术。
背景技术
提出了如下一种网络附加存储(Network Attached Storage,NAS),将与网络连接的存储系统作为与该网络连接的客户计算机的共有盘来使用。通过包含网络接口等的服务器、以及存储数据的盘驱动器构成NAS。
例如,在专利文献1中,公开了具有多个服务器、各服务器与网络连接的群集(cluster)结构的NAS。在专利文献1中记载的系统中,网络元件、交换机(switch)元件以及盘元件相当于NAS的服务器。专利文献1中记载的系统,能够具有共享文件系统的多个网络元件。另外,专利文献1中记载的系统,通过具有多个盘元件,能够以盘单位迁移(migration)数据。进而,各网络元件能够访问通过盘元件进行管理的全部文件系统。在盘元件之间,在执行存储文件系统的盘的迁移时,各网络元件也能够不受迁移的影响,访问全部文件系统。
作为用于访问在网络上分散存在的文件的文件系统之一,提出了网络文件系统(NFS)。根据作为NFS的当前时刻最新版的NFSv4(RFC3530)(参照非专利文献1),当文件系统在服务器之间迁移时,服务器对来自客户机的向该文件系统的访问,通知迁移目的地的位置信息。接收该通知的客户机,遵照所通知的位置信息,能够访问迁移目的地的文件系统。
【专利文献1】美国专利第6671773号说明书
【非专利文献1】RFC3530 NFS version 4、P.57-61,IETF Home Page,[online][平成18年3月15日检索],因特网<URL:http://www.ietf.org/home.html>
通过一个命名空间(Name Space)能够向客户机提供多个服务器管理的多个文件系统。这样的命名空间,称为全局命名空间(Global Name SpaceGNS)。在使用GNS的系统中,通过从负荷高的服务器向负荷低的服务器传送文件的迁移,能够实现多个服务器之间的负荷的均衡。
在GNS中,为了从客户机透明地执行用于负荷均衡的迁移,需要维持赋予文件的ID(文件句柄(file handle))。换言之,需要在迁移前赋予的文件句柄在迁移后也可以使用。此外,文件句柄包含在各服务器内唯一识别该服务器管理的文件系统的文件系统ID、以及在文件系统内唯一识别各文件的文件ID。
为了维持文件句柄,也可以对文件系统分配在系统内唯一决定的文件系统ID,以文件系统单位执行迁移。在这一情况下,不依赖管理文件系统的服务器,在系统内赋予唯一的文件句柄。其结果,客户机不需要意识到自己要访问的文件属于由哪个服务器管理的文件系统。即,文件系统在从一个服务器向别的服务器迁移后,客户机也能够使用执行迁移前赋予的文件句柄访问属于该文件系统的文件。这样,能够实现从客户机透明的文件系统的迁移。
但是,在以均衡服务器之间的负荷为目的进行迁移时,因为若以文件系统单位来进行则精细程度较粗糙,所以有时不能进行充分的负荷均衡。例如,当仅在一个文件系统中负荷集中时,即使迁移该文件系统全体,也只是移动该文件系统的负荷全部。其结果,不能向多个服务器分散负荷进行均衡。在这种情况下,需要用比文件系统精细的单位例如目录(directory)单位来执行迁移。
例如,把某服务器管理的任意的文件或者目录向别的服务器管理的文件系统上复制,由此能够实现比文件系统精细的单位的迁移。其结果,通过分散对该文件等的访问引起的负荷,能够均衡多个服务器的负荷。但是,在这一情况下,客户机使用在迁移执行前取得的文件句柄,不能访问迁移了的文件。即需要再次执行命名解析。
没有公开关于以比文件系统精细的单位执行从客户机透明的迁移的方法。
发明内容
本申请公开的代表的发明,其特征在于。在具有多个服务器、以及与所述多个服务器连接的盘子系统(Disk Sub System)的存储系统中,所述服务器具有与网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,所述盘子系统,具有包含一个以上的文件系统的一个以上的逻辑设备,对所述文件系统赋予在所述存储系统内唯一的第一识别符,对在所述文件系统中包含的目录中的至少一个赋予在所述存储系统内唯一的第二识别符,对在所述文件系统中包含的文件赋予在所述文件系统内唯一的第三识别符,所述处理器通过所述第二识别符以及所述第三识别符识别比赋予所述第二识别符的所述目录下位的文件。
此外理想的是,所述处理器,对于比赋予所述第二识别符的所述目录下位的文件,通过给比该文件上位的赋予所述第二识别符的目录中最接近该文件的目录赋予的所述第二识别符以及所述第三识别符进行识别。
根据本发明的一个形态,能够分割文件系统,对于分割后的文件系统中的每一部分执行迁移。因此,能够实现从客户机透明的、目录单位的迁移。因此,能够以精细的单位执行迁移,能够在服务器之间实现更好的负荷均衡。其结果,能够提高系统全体的性能。
附图说明
图1是表示本发明的实施方式的存储系统的结构的框图。
图2是本发明的实施方式的服务器软件的说明图。
图3是表示在本发明的实施方式中给客户机提供的共同命名空间的一例的示意图。
图4是本发明的实施方式的各服务器的命名空间的说明图。
图5是表示本发明的实施方式的GNS管理表的一例的说明图。
图6A是表示本发明的实施方式的迁移点管理表的一例的说明图。
图6B是表示本发明的实施方式的迁移点管理表的一例的说明图。
图7是本发明的实施方式的文件系统ID管理表的说明图。
图8是本发明的实施方式的迁移处理程序执行的处理的流程图。
图9是本发明的实施方式的文件系统处理程序内的文件系统分割处理模块执行的处理的流程图。
图10是在本发明的实施方式中正执行局部分割时的命名空间的一例的说明图。
图11是在本发明的实施方式中执行局部分割后的命名空间的一例的说明图。
图12是在本发明的实施方式中执行局部分割后的GNS管理表的一例的说明图。
图13是在本发明的实施方式中正执行远程分割时的命名空间的一例的说明图。
图14是在本发明的实施方式中执行远程分割后的命名空间的一例的说明图。
图15是在本发明的实施方式中执行远程分割后的GNS管理表的一例的说明图。
图16是在本发明的实施方式的管理计算机中显示的迁移选择点选择窗口的说明图。
图17是本发明的实施方式的迁移目的地详细设定窗口的说明图。
图18是说明本发明的实施方式的管理计算机根据统计信息控制迁移的执行的处理的流程图。
图19是比较本发明的实施方式和现有技术的方法的说明图。
符号说明
100存储系统
110服务器
111网络接口
112CPU
113本地存储器
116适配器
120盘子系统
121盘控制器
122盘超高速缓冲存储器
123盘驱动器
124逻辑设备(LDEV)
125端口
126管理用端口
130交换机
131管理用端口
135服务器间通信路径
140管理计算机
150客户机
160LAN
200服务器软件
201网络处理程序
202文件系统处理程序
203盘访问处理程序
204GNS管理处理程序
205服务器管理处理程序
206服务器间通信处理程序
207迁移处理程序
211迁移点设定处理模块
212文件访问处理模块
213文件系统制作处理模块,
214文件系统分割处理模块
具体实施方式
图1是表示本发明的实施方式的存储系统100的结构的框图。
本实施方式的计算机系统,具有存储系统100、管理计算机140、客户机150A、客户机150B以及相互连接它们的LAN160。
管理计算机140是执行用于管理存储系统100的处理的计算机。例如,管理计算机140向服务器110指示存储系统100内的文件系统的制作、文件系统的安装或者迁移。进而,管理计算机140指示盘子系统(Disk Sub System)120以及交换机(switch)130的设定变更。
管理计算机140至少具有相互连接的输入装置141、管理画面142、盘143、CPU144、本地存储器145以及网络接口(I/F)146。管理计算机140也可以由具有CPU144、本地存储器145以及网络接口I/F 146的框体(省略图示)、与该框体连接的输入装置141、管理画面142以及盘143构成。输入装置141例如是由系统管理者使用的键盘或者点击设备(pointing deveice)。管理画面142例如是向系统管理者显示信息的图像显示装置。关于在管理画面142上显示的内容以及通过点击设备的操作将在后面进行描述(参照图16以及图17)。
在盘143中,存储用于与服务器110等通信的程序以及用于管理系统的程序等。这些程序被读出到本地存储器145上,并由CPU144进行执行。在与服务器110以及盘子系统120的通信中使用网络接口I/F 146。
客户机150A以及150B是访问存储系统100的文件的计算机。客户机150A以及150B向存储系统100写入文件,或者从存储系统100读出文件。此时,使用存储系统100管理的文件系统。客户机150A以及150B至少具有存储执行文件访问的程序的存储器(省略图示)、以及执行在存储器中存储的程序的处理器(省略图示)。
在图1中,表示出两个客户机(150A以及150B),但是可以与LAN 160连接任意数目的客户机,向存储器单元100进行访问。在以下的说明中,在不需要特别区别两个客户机时,将其通称记为客户机150。
LAN 160是使用TCP/IP等协议进行通信的网络。
存储系统100是网络连接存储器(Network Attached Storage,NAS)。存储系统100具有服务器110A、服务器110B、盘子系统120以及相互连接这些的交换机130。
交换机130例如是光纤信道(FC)的交换机130。存储系统100也可以具有多个交换机130。一个以上的交换机130也可以构成存储器区域网络(SAN)。或者交换机130也可以是LAN的交换机或者存储系统专用的交换机。
服务器110A以及110B是遵照从客户机150接收的访问请求访问盘子系统120的计算机。
在以下的说明中,在不需要特别区别服务器110A以及110B时,将其通称记为访问请求110。另外,在以下的说明中,服务器110A以及110B也简单地记为服务器A以及服务器B。在图1中,表示出两个服务器110A以及110B,但是存储系统100也可以具有更多的服务器110。服务器110也可以称为NAS头(head)或者NAS节点。多个服务器110也可以构成群集。
服务器110A具有相互连接的网络接口111A、CPU112A、本地存储器113A以及适配器116A。
网络接口111A是连接LAN 160的、并与管理计算机140以及客户机150进行通信的接口。
CPU112A是控制服务器110A的动作的处理器。具体说,CPU112A执行在本地存储器113A中存储的程序。
本地存储器113A例如是半导体存储器,存储CPU112A执行的程序以及由CPU112A参照的数据。具体说,本地存储器113A存储安装表(mount table)(省略图示)、后述的服务器软件200以及迁移点管理表600等。
适配器116A是连接交换机130的、并与盘子系统120进行通信的接口。
服务器110B和服务器110A同样,具有网络接口111B、CPU112B、本地存储器113B以及适配器116B。因为这些与网络接口111A、CPU112A、本地存储器113A以及适配器116A同样,所以省略说明。进而在设置多个服务器110时,各服务器110的结构可以和服务器110A相同。
在存储系统100具有多个服务器110时,这些服务器110通过服务器间通信路径135相互连接。服务器110经由服务器间通信路径135能够相互通信。
具体说,在更新GNS管理表500时,其更新内容经由服务器间通信路径135被发送至其他的服务器110。发送目的地的服务器110在其服务器110内的GNS管理表500内反映接收到的更新的内容。
本实施方式的存储系统100,如图1所示,具有从交换机130以及LAN160任何一个都独立的服务器间通信路径135。但是,服务器110也可以经由交换机130或者LAN160相互通信。或者,服务器110也可以使用盘子系统120的盘超高速缓冲存储器122(disk cache)相互通信。服务器110使用上述任何一个路径进行通信,都可以实施本发明。
盘子系统120具有相互连接的盘控制器121A、盘控制器121B、盘超高速缓冲存储器122以及盘驱动器123。盘控制器121A具有与交换机130连接的端口125A以及125B。盘控制器121B具有与交换机130连接的端口125C以及125D。在以下的说明中,在不需要特别区别盘控制器121A以及121B时,将其统称记为盘控制器121。另外,在不需要特别区别端口125A到125D时,将其统称记为端口125。盘子系统120也可以具有一个或者三个以上的盘控制器121。各盘控制器121也可以具有一个或者三个以上的端口125。
盘控制器121通过与端口125连接的交换机130与服务器110进行通信,控制盘子系统120。具体说,盘控制器121遵照来自服务器110的请求,在盘驱动器123中写入数据,或者从盘驱动器123读出数据。
盘超高速缓冲存储器122例如是半导体存储器,临时存储写入盘驱动器123的数据或者从盘驱动器123读出的数据。
盘驱动器123A到123D是存储数据的硬盘驱动器(hard disk driver)。盘子系统具有任意数目的盘驱动器123A等。在以下的说明中,在不需要特别区别盘驱动器123A到123D时,将其统称记为盘驱动器123。这些盘驱动器123也可以构成Redundant Arrays of Inexpensive Disks(RAID(冗余廉价盘阵列))。
盘驱动器123的存储区域,分割为任意数目的逻辑设备(LDEV)来使用。在图1中,作为例子,表示4个LDEV124A到124D。在以下的说明中,在不需要特别区别LDEV124A到124D时,将其统称记为LDEV124。LDEV124是通过盘控制器121作为逻辑的盘驱动器进行处理的区域。在盘驱动器123构成RAID时,如图1所示,一个LDEV124也可以由多个盘驱动器123的存储区域来构成。各LDEV124的大小任意。
对各LDEV赋予LDEV识别符(ID)。在图1的例子中,LDEV124A~LDEV124D的ID分别是L0~L3。
服务器110在各LDEV124内制作文件系统,管理该文件系统。对各文件系统赋予在存储系统内为唯一的文件系统识别符(ID)。
存储系统100也可以具有多个盘子系统120。在该情况下,某服务器110,也可以经由交换机130,只访问特定的盘子系统120或者特定的盘子系统120的集合。或者各服务器110也可以访问全部盘子系统120。
交换机130以及盘子系统120分别具有与LAN160连接的管理用端口131以及126。管理计算机140,通过经由LAN160与这些管理用端口131以及126进行通信,能够参照或者更新交换机130以及盘子系统120的设定。
图2是本发明的实施方式的服务器软件200的说明图。
服务器软件200包含CPU112执行的程序。具体说,服务器软件200包含网络处理程序201、文件系统处理程序202、盘访问处理程序203、GNS管理处理程序204、服务器管理处理程序205、服务器间通信处理程序206以及迁移处理程序207。
网络处理程序201是对管理计算机140以及客户机150之间经过LAN160的通信进行控制的程序。
文件系统处理程序202是处理从客户机150访问文件系统内的文件的访问请求、以及来自管理计算机140的对于文件系统的指示等的程序。文件系统处理程序202的更详细的说明将在后面进行描述。
盘访问程序203是根据文件系统处理程序202接收的对于文件的访问请求实际访问盘子系统120的程序。
GNS管理处理程序204,在迁移处理程序207执行文件系统的迁移时更新GNS管理表500。GNS管理表500的详情将在后面描述(参照图5)。
服务器管理处理程序205是与管理计算机140通信、进行服务器110的设定的程序。例如,服务器管理处理程序205,当从管理计算机140接受创建文件系统的指示时,向文件系统处理程序202传达该指示,执行文件系统的创建。当从管理计算机140接受迁移的指示时,服务器管理处理程序205向迁移处理程序207传达该指示,执行迁移。
服务器间通信处理程序206是控制经由服务器间通信路径135的服务器110之间的通信的程序。例如,服务器间通信处理程序206,为了更新GNS管理表500的内容,向在其他的服务器110中正执行的GNS管理处理程序204发送更新内容。
迁移处理程序207是执行迁移的程序。所谓迁移,是把某文件系统从现在正管理的服务器110移动到别的指定的服务器110的管理下的处理。
在客户机150要访问文件系统内的文件时,通过管理该文件系统的服务器110处理访问请求。由此,迁移文件系统,成为向迁移目的地的服务器分散负荷。通过迁移处理,能够均衡各服务器110承担的负荷,提高存储系统100整体的性能。
文件系统处理程序202,包含迁移点设定处理模块211、文件访问处理模块212、文件系统制作处理模块213以及文件系统分割处理模块214。
迁移点设定处理模块211,遵照管理用计算机140的指示,执行服务器110具有的迁移点管理表600的更新处理。
文件访问处理模块212,根据来自客户机150的请求,执行目录名或者文件名的命名解析处理,向客户机返回作为文件识别符的文件句柄。另外,例如在客户机150请求的目录名或文件名属于由其他服务器110管理的目录树时,向客户机150返回管理该目录树的的服务器110的位置信息(例如服务器110的ID)。所谓目录树,是相当于文件系统的全体或者其一部分的一个以上的目录。
文件系统制作处理模块213,遵照管理计算机140的指示,创建文件系统。另外,文件系统制作处理模块213,遵照文件系统分割处理模块214的指示,创建文件系统。
文件系统分割处理模块214,遵照迁移处理程序207的指示,执行文件系统的分割处理。文件系统的分割处理的详情将在后面描述(参照图9)。
图3是表示在本发明的实施方式中对客户机150提供的共同命名空间的一例的说明图。
通过一个以上的服务器110构成共同命名空间。具体说,共同命名空间,是通过综合各服务器110管理的文件系统构成的一个共同命名空间。把该共同命名空间称为全局命名空间(GNS)。在图3中,表示出包含为了说明实施例必要最小限度的目录以及文件的GNS300。实际的GNS也可以包含更多的目录以及文件。
GNS300,通过两个服务器,即服务器A以及服务器B构成GNS。下面说明各服务器的命名空间。
图4是本发明的实施方式的各服务器110的命名空间的说明图。
图4,作为例子,表示服务器A的命名空间400A以及服务器B的命名空间400B。最初,说明构成命名空间400A以及400B的方法,接着说明GNS300的构成方法。
服务器A管理三个文件系统411、401以及402。通过综合属于各自的文件系统的目录树,构成命名空间400A。
在相当于文件系统411的目录树的最上位目录下,有目录“gns”414以及“mnt”。在目录“gns”414之下,有“a”403、“b”404以及“c”405三个目录。另一方面,在目录“mnt”下,有目录“fs0”413以及目录“fs1”408。
在相当于文件系统401的目录树的最上位目录下,有目录“aa”406以及“ab”。在目录“aa”406之下,有文件“file1”。另外,在目录“ab”之下,有目录“ac”407。在目录“ac”407之下,有目录“ad”以及目录“ae”。
在相当于文件系统402的目录树的最上位目录下,有目录“ba”以及“bb”。在目录“ba”之下,有目录“bc”。
命名空间400A的根目录“/”是文件系统411的最上位目录。服务器A,通过在相当于文件系统411的目录树中的路径“/mnt/fs0”上绑定文件系统401的最上位目录、在路径“/mnt/fs1”上绑定文件系统402的最上位目录,构成一个命名空间400A。像这样,将在由一个服务器110管理的文件系统之间、在某文件系统的目录树上绑定其他文件系统的目录树,称为本地安装。另外,如文件系统411那样,将具有根目录的文件系统,称为根文件系统。
服务器B管理两个文件系统412以及409。通过综合属于各个文件系统的目录树,构成命名空间400B。
在相当于文件系统412的目录树的最上位目录下,有目录“mnt”。在目录“mnt”下,有目录“fs2”410。
在相当于文件系统409的目录树的最上位目录下,有目录“ca”。在目录“ca”下,有文件“file2”以及文件“file3”。
命名空间400B的根文件系统是文件系统412。在根文件系统内的路径“/mnt/fs2”上,通过对与文件系统409相当的目录树进行本地安装,构成命名空间400B。
下面表示综合以上说明的服务器A的命名空间400A、服务器B的命名空间一部分,构成作为共同命名空间GNS300的方法。
把命名空间400A的路径“/gns/”作为GNS300的根目录“/”。把具有GNS300的根目录的服务器A称为GNS根服务器,把命名空间400A的路径“/gns/”称为GNS根目录。在服务器软件200内存储GNS根服务器和GNS根目录。
GNS根目录(命名空间400A的“/gns/”)以下的目录树成为属于GNS300的目录树。在GNS根目录下可以制作连接点。通过在连接点上绑定与文件系统相当的目录,可以构成一个目录树。把通过在GNS300的连接点上绑定文件系统构成一个目录树称为“连接”。
在GNS300的GNS根目录下有三个连接点“/a/”403、“/b/”404以及“/c/”405。在连接点“/a/”403上连接在服务器A管理的路径“mnt/fs0/”上本地安装的文件系统401。在连接点“/b/”404上连接在服务器A管理的路径“mnt/fs1/”上本地安装的文件系统402。在连接点“/c/”405上连接在服务器B管理的路径“mnt/fs2/”上本地安装的文件系统409。
图5是表示本发明的实施方式的GNS管理表500的一例的说明图。
在各服务器110的本地存储器113中存储GNS管理表500,并通过各服务器110分别进行管理。在各服务器存储的GNS管理表500中登录相同的值。GNS管理表500是用于管理构成GNS300的全部文件系统的表,一个条目(entry)(行)表示一个目录的连接点。
在服务器名501中,登录管理文件系统的服务器名。在本地路径502中,登录在服务器名501中登录的服务器110管理的命名空间中本地安装文件系统的路径。连接点503,表示在本地路径502上本地安装的目录与GNS300上的哪个连接点连接。
GNS管理表500,还也可以包含表示GNS根服务器以及GNS根目录的信息。具体说,与图3以及图4的例子对应的GNS管理表500,也可以包含表示服务器A是GNS根服务器、“/gns/”是GNS根目录的信息。
各服务器110,能够执行根文件系统内的命名解析、和在该根文件系统上直接或者间接本地安装的目录内的命名解析。例如,在图3所示的GNS300的环境中,假定服务器110A从客户机150接受对GNS300上的文件“/c/ca/file2”的访问请求。服务器110A是GNS根服务器。因此,服务器110A,在路径“/c/ca/file2”上附加GNS根目录“/gns/”,把GNS300的路径变换为本地路径(服务器110A的命名空间中的路径)。变换后的路径成为“/gns/c/ca/file2”。服务器A能够进行到“/gns/”为止的命名解析。但是服务器A不能进行“/gns/c/”的命名解析。
此时,服务器110A,参照GNS管理表500,判断“/gns/c/”在服务器110B的管理下。于是,向发行访问请求的客户机150通知位置信息。这里通知的位置信息,包含管理该目录的服务器的识别符,如果需要,也可以包含该服务器内的本地路径。接收到通知的客户机150,通过向服务器110B发行请求,能够访问GNS300上的文件“/c/ca/file2”。
在上述的例子中,表示出接收到命名解析请求的服务器A向客户机150通知识别管理成为命名解析对象的文件的服务器110B的信息的方法。和该方法不同,也可以接收到命名解析请求的服务器A向服务器B传送来自客户机150的命名解析请求,服务器B执行命名解析。另外,在上述例子中,仅通过一个服务器110管理一个文件系统,但是也可以多个服务器110共同地管理一个文件系统。在这种情况下,必须保证在更新共有的文件系统前,执行更新的服务器110取得文件系统的锁(lock),由此正确地执行更新。
在向客户机150提供GNS300前,管理计算机140预先在各服务器110内设定成为分割文件系统的基点的目录路径。在执行迁移时,把该目录路径作为基点分割文件系统,迁移分割后的文件系统。其结果,能够实现精细程度更精细的迁移。把该成为分割该文件系统的基点的目录路径称为迁移点。各服务器110分别使用迁移点管理表600管理迁移点。
图6A以及图6B是表示本发明的实施方式的迁移点管理表600的一例的说明图。
图6A中的迁移点管理表600A是在服务器A的本地存储器113A中存储的迁移点管理表600。图6B中的迁移点管理表600B是在服务器B的本地存储器113B中存储的迁移点管理表600。以下,在对迁移点管理表600A以及600B中任何一个进行共同的说明时,从在图6A以及图6B中表示的符号中省略“A”、“B”,记为“迁移点601”。
迁移点601是服务器110内的本地路径。客户机150为了访问GNS300的文件而使用的GNS根目录、和为了构成GNS300而连接的目录作为迁移点601被登录。然后,对各迁移点给予文件系统ID。进而,把要作为分割文件系统的基点的目录也作为迁移点登录,预先给予文件系统ID。
例如,在图6A的迁移点管理表600A中,作为迁移点601,登录GNS300的根目录“/gns/”、与GNS300连接的“/mnt/fs0/”以及“/mnt/fs1/”、以及成为分割文件系统的基点的“/mnt/fs0/aa/”及“/mnt/fs0/ab/ac/”。
系统管理者可以预先在迁移点601中登录任意的目录。
文件系统ID602是赋予各文件系统以及任意的目录树的在存储系统100内唯一的识别符。管理计算机140,在迁移点管理表600中登录迁移点601时,赋予在存储系统100内唯一的文件系统ID。
在客户机150执行比迁移点601下位的文件(即属于迁移点601以下的目录树的文件)的命名解析时,文件系统处理程序202对客户机返回文件句柄(识别符)。该文件句柄,包含与在最接近访问对象的文件的上位目录层次中的迁移点601对应的文件系统ID902、以及赋予访问的文件的文件ID。例如,在执行GNS的路径“/a/aa/file1”的命名解析时,该GNS的路径与服务器A的本地路径“/mnt/fs0/aa/file1”对应(参照图3到图5)。最接近“/mnt/fs0/aa/file1”的上位的迁移点601是“/mnt/fs0/aa/”。因此,对客户机返回的文件句柄,包含迁移点“/mnt/fs0/aa/”的文件系统ID“2”以及文件ID“file1”。
一次赋予迁移点601的文件系统ID602在迁移执行后也不需改变。因此,识别存储系统100内的各文件的文件句柄,即使以迁移点601以下的目录树单位来执行迁移也始终是一定。使用该结构,能够从客户机10透明地(换言之,客户机150意识不到各文件或者目录由哪个服务器管理)、以迁移点作为基点分割文件系统。详情将在后面描述(参照图8以及图9)。
使用容量603~写I/O信息605中登录各迁移点的统计信息。使用容量603,表示迁移点以下的目录树正使用的盘的容量。在读I/O信息604中,登录目录树中的文件被读访问多少次、以及目录树中的文件被读入多少字节。在写I/O信息605中,登录目录树中的文件被写访问多少次、以及目录树中的文件被写入多少字节。
例如,读I/O信息604以及写I/O信息605,可以每秒的平均值,也可以是规定时间的累积值等。再有,也可以和在使用容量603~写I/O信息605中登录的信息不同,例如登录每分钟记入(logging)的值,了解随时间经过的性能变化。
在使用容量603~写I/O信息605中登录的信息,可以作为用于判断把哪个服务器110的迁移点向哪个服务器迁移的材料来使用。详情将在后面描述(参照图16以及图19)。
图7是本发明的实施方式的文件系统ID管理表700的说明图。
在管理计算机140可以参照的任何地方存储文件系统ID管理表700。在管理计算机140内的本地存储器145或者盘143内存储本实施方式的文件系统ID管理表700。
管理计算机140,为了对各迁移点赋予存储系统100内唯一的文件系统ID,参照文件系统ID管理表700。文件系统ID管理表700由文件系统ID701以及状态702组成。
在文件系统ID701中登录已经赋予各迁移点的、或者由其赋予的文件系统ID。
在状态702中登录表示是否已经对文件系统ID701赋予任何一个迁移点的值。在状态702中登录“完成”的文件系统ID701,已经被赋予给在存储系统100中任何一个迁移点。另一方面,在状态602中登录“未完成”的文件系统ID701,尚未被赋予给存储系统100中任何一个迁移点。
在新设定迁移点时,管理计算机140对该迁移点赋予状态702的值是“未完成”的文件系统ID701。然后,把与该文件系统ID701对应的状态702更新为“完成”。其结果,对于新设定的迁移点,始终赋予在存储系统内尚未被赋予任何迁移点的文件系统ID701。
下面说明本实施方式中执行的迁移处理。
可以考虑对服务器110给予迁移的执行契机的若干方法。例如,可以由系统管理者通过管理计算机140对服务器软件200给予迁移的指示。或者也可以由服务器软件200自动地判断开始迁移处理。或者还可以通过别的方法给予执行契机。任何一种方法都可以实施本发明。
下面参照图8以及图9说明本发明的实施例中的迁移的执行处理的过程。此外,在本地存储器113内存储在服务器软件200中包含的程序以及模块,并由CPU112执行。因此,在以下的说明中各程序以及模块执行的处理,实际上通过CPU112执行。
图8是本发明的实施方式的迁移处理程序207执行的处理的流程图。
服务器110,在从管理计算机140接收指定成为迁移对象的迁移点的迁移的指示时,迁移处理程序207开始图8所示的处理。或者,迁移处理程序207自身也可以例如参照在迁移点管理表600中登录的统计信息等判定是否执行迁移。迁移处理程序207,在判定为执行迁移时,开始图8的处理。
最初,迁移处理程序207判断是否需要分割文件系统(801)。
在迁移处理程序207接收到的迁移点以下的目录树是文件系统全体时(换言之,接收到的迁移点是文件系统的最上位的目录时),文件系统全体要被迁移。在这一情况下,因为不需要分割文件系统,所以判定的结果为”否”,前进到步骤804的处理。
另一方面,在迁移处理程序207接收到的迁移点以下的目录树是文件系统的一部分时,需要分割文件系统。因此,判定的结果为“是”,前进到步骤802的处理。
迁移处理程序207,在步骤802,调用文件系统分割处理模块214。文件系统分割处理模块214执行的处理的详情将在后面描述(参照图9)。
接着,迁移处理程序207,判定是否需要迁移由文件系统分割处理802分割的结果创建的文件系统(803)。
如后述,在步骤802中执行局部分割时,需要迁移被分割后的文件系统。另一方面,在执行远程分割时,不需要迁移被分割后的文件系统。
在步骤803,在判定为需要执行迁移时,迁移处理程序207,执行被分割后的文件系统的迁移(804),结束处理。
具体说,迁移处理程序207,在步骤804,向迁移目的地的服务器110发送成为迁移对象的在把分割后的文件系统中包含的全部文件。迁移目的地的服务器的迁移处理程序207把接收到的文件在任何一个LDEV124中存储。
另一方面,在步骤803,在判定不需要执行迁移时,迁移处理程序207不执行迁移,结束处理。
图9是本发明的实施方式的文件系统处理程序202内的文件系统分割处理模块214执行的处理的流程图。
在图8的步骤802中由迁移处理程序207调用时,由文件系统分割处理模块214执行图9的处理。
最初,文件系统分割处理模块214制作新的文件系统(901)。这里,文件系统分割处理模块214可以制作自身服务器(即正管理分割对象的文件系统的服务器110)管理的新的文件系统,也可以制作自身服务器以外的服务器110管理的新的文件系统。把像前者那样执行的分割在以下的说明中称为“局部分割”。把像后者那样执行的分割在以下的说明中称为“远程分割”。局部分割的具体例,后面参照图10到图12说明。远程分割的具体例,后面参照图13到图15说明。
接着,文件系统分割处理模块214,把属于成为分割对象的迁移点以下的目录的文件,向在步骤901制作的文件系统,维持文件ID原样地进行复制(902),为了防止由于迁移导致文件句柄变更,需要维持文件ID。因此,服务器110的操作系统(OS)需要具有进行指定了文件ID的文件的复制的功能。
接着,文件系统分割处理模块214更新迁移点管理表600(903)。关于该更新将在后面描述。
接着,文件系统分割处理模块214更新GNS管理表500(904)。具体说,文件系统分割处理模块214调用GNS管理处理程序204,使更新GNS管理表500。关于该更新将在后面描述(参照图12以及图15)。
接着,文件系统分割处理模块214把制作好的新的文件系统与GNS连接(905)。具体说,更新安装表(省略图示)。安装表的更新,也可以通过与现有技术相同的方法执行。因此省略详细的说明。
以上,文件系统分割处理模块214结束处理。
接着,参照图10到图12,说明在步骤901中制作自身服务器管理的新的文件系统时的图9的处理的具体例。
具体说,以分割服务器A的迁移点“mnt/fs0/ab/ac/”407以下的目录树、制作服务器A管理的新的文件系统的情况为例进行说明。
图10是在本发明的实施方式中正执行局部分割时的命名空间的一例的说明图。
图10中,关于在图4中已经说明的部分,省略说明。
文件系统分割处理模块214,在服务器A可利用而未使用的LDEV124上制作新的文件系统1002(901)。进而,文件系统分割处理模块214,在服务器A的本地路径“/mnt/fs3/”上本地安装制作好的新的文件系统1002。
接着,文件系统分割处理模块214,把属于迁移点407以下的目录树1001的文件“ad”以及“ae”,维持文件ID原样不变,向文件系统1002以下的目录树复制(902)。目录树1001相当于文件系统401的一部分。
接着,文件系统分割处理模块214,把迁移点管理表600A的迁移点601A“/mnt/fs0/ab/ac/”改写为“/mnt/fs3/”(903)。
接着,GNS管理处理程序204更新GNS管理表500(904)。具体说,GNS管理处理程序204向GNS管理表500追加新的行1201。被更新了的GNS管理表1200如图12所示。在追加的行1201的服务器名501中登录“服务器A”、在本地路径502中登录“/mnt/fs3/”、在连接点503中登录“/gns/a/ab/ac/”。
接着,文件系统分割处理模块214,遵照改写后的GNS管理表1200,在连接点“/gns/a/ab/ac/”1101(参照图11)上连接服务器A的本地路径“/mnt/fs3/”1003(905)。
以上结束文件系统的局部分割。
图11是在本发明的实施方式中执行局部分割后的命名空间的一例的说明图。
图11是图10所示的局部分割的执行结束后的命名空间。图11中,关于在图10中已经说明的部分,省略说明。
删除服务器A的本地路径“/mnt/fs0/ab/ac/”下的文件“ad”以及“ae”,设定“/gns/a/ab/ac/”1101作为新的连接点。
图12是在本发明的实施方式中执行局部分割后的GNS管理表1200的一例的说明图。
在GNS管理表1200中,如在图10中说明的那样,追加新的行1201。
局部分割结束后,需要把创建好的文件系统向其他的服务器110迁移。在图11的例子中,需要把文件系统1002例如向服务器B迁移。因此,在图8的步骤803判定为“是”,执行步骤804的迁移。
例如,如后述的图13所示,在文件系统1002向服务器B迁移时,执行迁移后的服务器A以及服务器B的本地命名空间成为图14所示那样。此时,与迁移点管理表600A的“/mnt/fs3/”对应的行,移动到迁移点管理表600B中。于是,执行迁移后的GNS管理表500,成为后述的图15所示那样。
执行迁移前,与迁移点管理表600A的“/mnt/fs3/”对应的文件系统ID602A的值是“3”。因此,在与“/mnt/fs3/”对应的行移动到迁移点管理表600B中时,不仅路径名“/mnt/fs3/”,而且移动的行的文件系统ID602A的值“3”也被发送至移动目的地的服务器B。该发送,也可以通过LAN160、服务器间通信路径135或者其他的网络执行。移动目的地的服务器B,把从移动源的服务器A发送的路径名“/mnt/fs3/”以及文件系统ID“3”分别登录在迁移点601B以及文件系统ID602B中。其结果,被迁移的文件,可以通过和迁移执行前相同的文件句柄识别。
这里补充说明维持文件ID原样不变的复制方法(参照图9的步骤902)。所谓文件ID,是对每一文件赋予的识别符,在文件系统中唯一。为维持文件ID原样不变进行复制,必须保证在复制目的地的文件系统中没有具有相同文件ID的文件。而在步骤901刚制作好的文件系统中,因为没有登录的文件,所以能够保证文件ID不重。因此,能够维持文件ID原样不变复制文件。换言之,在迁移一个文件时,迁移执行后的迁移目的地的服务器110,使用与迁移源的服务器110为了识别该文件而使用的文件ID相同的文件ID,识别迁移的对象的文件。
客户机150,在访问GNS的文件时,使用组合系统内唯一的文件系统ID和在文件系统内唯一的文件ID而作成的文件句柄,唯一识别系统内的文件。服务器110,当接收指定文件句柄的访问请求时,执行对于通过指定的文件句柄识别的文件的访问。
根据本发明,在执行文件系统的分割的前后,文件系统ID和文件ID都不变化。另外,即使在文件系统分割后迁移文件系统,文件系统ID和文件ID任何一个都不变化。因此,客户机150,使用在文件系统分割前取得的文件句柄,文件系统分割后也好,在文件系统的迁移后也好,都能够访问唯一的文件。
也可以预先在迁移目的地的服务器110上制作通过分割制作的新的文件系统。那样执行的分割是远程分割。例如,参照图13~图15说明以下的处理:分割分割源的文件系统401的迁移点407以下的目录树,把新的文件系统制作为服务器B管理的文件系统时执行的图9的处理。
图13是在本发明的实施方式中正执行远程分割时的命名空间的一例的说明图。
在图13中,关于在图4或者图10中已经说明的部分,省略说明。
文件系统分割处理模块214,在服务器B可利用而未使用的LDEV124中制作新的文件系统1302(901)。进而,文件系统分割处理模块214,在服务器B的本地路径“/mnt/fs3/”上本地安装制作好的新的文件系统1302。
接着,文件系统分割处理模块214,把迁移点“/mnt/fs0/ab/ac/”407以下的目录树1301以下的文件“ad”以及“ae”,维持文件ID原样不变,复制到文件系统1302(902)。该复制可以通过LAN160执行,也可以通过其他的网络执行。
接着,文件系统分割处理模块214,向服务器B发送在迁移点管理表600B中把“/mnt/fs3/”作为迁移点追加的指示(903)。
在该指示中包含:在迁移点管理表600B中新追加的迁移点ID“/mnt/fs3/”、以及在迁移点管理表600A中与该ID对应登录的文件系统ID1602A的值“3”。其结果,在迁移点管理表600B中新追加的行的迁移点601B以及文件系统ID602B分别成为“/mnt/fs3/”以及“3”。其结果,被迁移的文件,可以由与执行迁移前相同的文件句柄来识别。
接着,文件系统分割处理模块214向GNS管理处理程序204发送更新GNS管理表500的指示(904)。GNS管理处理程序204在GNS管理表500中追加新的行1501。更新后的GNS管理表1500如图15所示。在追加的行1501的服务器名501中登录“服务器B”,在本地路径502中登录“/mnt/fs3/”,在连接点503中登录“/gns/a/ab/ac/”。
接着,文件系统分割处理模块214,遵照改写后的GNS管理表1500,在连接点“/gns/a/ab/ac/”1401(参照图14)上连接服务器B的本地路径“/mnt/fs3/”1303(905)。
以上结束文件系统的远程分割。
图14是在本发明的实施方式中执行远程分割后的命名空间的一例的说明图。
图14是图13所示的远程分割执行结束后的命名空间。在图14中,关于在图13中已经说明了的部分省略说明。
删除服务器A的本地路径“/mnt/fs0/ab/ac/”下的文件“ad”以及“ae”,设定“/gns/a/ab/ac/”1401作为新的连接点。
图15是在本发明的实施方式中执行远程分割后的GNS管理表1500的一例的说明图。
在GNS管理表1500中,如在图13的说明那样,追加了新的行1501。
通过以上的远程分割,和分割结束的同时,也结束向其他的服务器110文件系统的迁移。因此,在图8的步骤803中判定为”否”,不执行步骤804的迁移。
文件系统的制作901、文件的复制902、数据的二次改写、以及和GNS管理处理程序204的通信,可以通过LAN160进行,也可以通过服务器间通信路径135进行。
如图10~图13的例子,把在管理原来的文件系统的服务器110上制作新的文件系统后执行迁移的方法称为局部分割迁移。如图13~图15的例子,把预先在迁移目的地的服务器110上制作新的文件系统的方法称为远程分割迁移。
在局部分割迁移以及远程分割迁移中,具有分别相反的长处和短处。局部分割迁移的长处在于,在变更交换机130的设定,仅切换服务器110和盘控制器125间的路径可以进行文件系统的迁移时,能够节约由服务器110之间的文件复制等引起的网络带宽的消费。例如,在执行从服务器A到服务器B的迁移时,如果服务器A和服务器B共有相同的盘子系统120,则通过改变交换机130的设定,可以把迁移对象的文件系统所在的LDEV124从服务器A移动到服务器B的管理之下。
局部分割迁移的短处在于,在迁移源的盘子系统120的空置容量不足时,以及在因为用完LDEV124不能制作新的文件系统时不能执行。
远程分割迁移的长处在于,即使在迁移源的盘子系统120的空置容量不足时,或者在LDEV124不足时,如果迁移目的地源的盘子系统120的空置容量或者LDEV数量有余裕,则可以进行迁移。
远程分割迁移的短处在于,在变更交换机130的设定,仅切换服务器110和盘控制器125间的路径就能够进行文件系统的迁移时,也消费网络带宽。
在本发明中,通过组合使用以上的局部分割迁移和远程分割迁移,能够执行效率更高的文件系统的迁移。
下面,作为给予迁移的执行契机的具体例,在图16以及图17中举例表示用于管理者从管理计算机140指示向服务器110执行迁移的图形用户接口(GUI)。
图16是在本发明的实施方式的管理计算机140中显示的迁移选择点选择窗口的说明图。
迁移选择点选择窗口1600在管理计算机140的管理画面142上显示。在迁移选择点选择窗口1600中,显示迁移源服务器列表1650、迁移点列表1660、以及迁移目的地服务器列表1670。
为了系统管理者决定要迁移哪个服务器110的目录树,显示迁移源服务器列表1650。迁移源服务器列表1650包含服务器名1601、空置容量1602、空置LDEV数1603,CPU负荷1604以及网络带宽1605。
在服务器名1601中,显示成为迁移源的服务器110的候补。在空置容量1602中,显示服务器名1601表示的服务器110可以利用的盘子系统120的空置容量。在空置LDEV数1603中,显示在服务器名1601表示的服务器110可以利用的盘子系统120中设定的LDEV的数。在CPU负荷1604中,显示服务器名1601表示的服务器110现在正使用的CPU112的负荷的值(例如%)。在网络带宽1605中,显示服务器名1601表示的服务器110现在正使用的网络带宽的量(例如字节每秒)。系统管理者,通过操作条目的选择按钮1606,可以选择服务器器名1601。选择的服务器名1601表示的服务器110成为迁移源的服务器110。
此外,由系统管理者进行的选择按钮1606的操作,通过输入装置执行。例如在输入装置141包含鼠标时,系统管理者也可以通过在选择按钮1606上执行鼠标点击进行操作。关于执行按钮1631也同样。
系统管理者,作为迁移源,例如可以选择空置容量1602较少的服务器110,可以选择空置LDEV数1603较少的服务器110,可以选择CPU负荷1604较高的服务器110,也可以选择网络带宽1605的使用量较高的服务器110。或者也可以组合列1602~1605的各种信息选择迁移源的服务器110。
在迁移源服务器的迁移点列表1660中,显示通过选择按钮1606选择的服务器110的迁移点管理表600。在迁移点列表1660中包含的迁移点1611、使用容量1612、读I/O信息1613以及写I/O信息1614中,分别显示在迁移点管理表600中登录的迁移点601、使用容量603、读I/O信息604以及写I/O信息605的值。
系统管理者,通过操作选择按钮1615,从在迁移点管理表中显示的迁移点中选择想迁移的目录树。具体说,系统管理者从迁移点1611中选择想迁移的目录树的最上位目录。
在迁移目的地服务器列表1670中,显示服务器名1621、空置容量1622、空置LDEV数1623、CPU负荷1624以及网络带宽1625。系统管理者,从迁移目的地服务器列表1670中选择服务器110,该服务器100是对操作选择按钮1615而选择的迁移点以下的目录树进行迁移的目的地的服务器。该选择可以通过系统管理者操作选择按钮1626执行。
在服务器名1621中,显示成为迁移目的地的候补的服务器110的命名。在空置容量1622中,显示服务器名1621表示的服务器110可以利用的盘子系统120的空置容量。在空置LDEV数1623中,显示服务器名1621表示的服务器110可以利用的盘子系统120的空置LDEV的数。在CPU负荷1624中,显示服务器名1621表示的服务器110现在正使用的CPU112的负荷的值(例如%)。在网络带宽1625中,显示服务器名1621表示的服务器110现在正使用的网络带宽的量(例如字节每秒)。
当系统管理者操作迁移执行按钮1631时,显示迁移目的地的详细输入窗口1700(参照图17)。为了关闭迁移点选择窗口1600、取消迁移处理而使用取消按钮1632。
图17是本发明的实施方式的迁移目的地详细设定窗口1700的说明图。
迁移目的地详细设定窗口1700,包含迁移源服务器名显示栏1701、迁移点显示栏1702、迁移目的地服务器名显示栏1703、LDEV名输入栏1704、本地路径输入栏1705、执行按钮1731以及取消按钮1732。
在迁移源服务器名显示栏1701中,显示通过图16的选择按钮1606选择的迁移源的服务器110的服务器名1601。在图17的例子中,显示“服务器A”。在迁移点显示栏1702中,显示通过选择按钮1615选择的迁移点1611。在图17的例子中,显示“/mnt/fs3/”。在迁移目的地服务器名显示栏1703中,显示通过选择按钮1626选择的迁移目的地的服务器110的服务器名1621。在图17的例子中,显示“服务器B”。
系统管理者,从迁移目的地的服务器110可以利用的LDEV124中,选择作为迁移目的地使用的LDEV,将该LDEV124的LDEV名输入LDEV名输入栏1704。
进而,系统管理者,指定本地安装在迁移目的地的LDEV124上制作的文件系统的迁移目的地的服务器110,在本地路径输入栏1705中输入该本地路径。其结果,在迁移目的地服务器名显示栏1703中显示的服务器110的、在本地路径输入栏1705中输入的本地路径内制作迁移目的地的文件系统。在本地路径输入栏1705中输入的值,与GNS管理表500的本地路径502对应。
当系统管理者操作执行按钮1731时,管理计算机140指示开始向服务器软件200的迁移。当系统管理者选择取消按钮1732时,迁移目的地详细设定窗口关闭。
局部分割迁移和远程分割迁移也可以自动灵活使用。例如,在执行从服务器A向服务器B的迁移时,在服务器A和服务器B共有相同的盘子系统120时,向在LDEV名输入栏1704输入的LDEV124的迁移,能够仅切换路径实现。此时,为了临时在服务器A上本地安装在局部分割中使用的LDEV124的文件系统的目录,也可以由管理计算机140自动生成。
在服务器A和服务器B不共有相同的盘子系统120时,不能通过路径切换执行迁移。因此,自动地选择、执行远程分割迁移。在该情况下,为了在服务器B上确保在LDEV名输入栏1704中输入的LDEV124,在该LDEV124上制作文件系统。然后,通过向制作好的文件系统维持文件ID原样不变复制在迁移点显示栏1702中显示的目录以下的文件,执行迁移。
在图16以及图17中,说明了系统管理者使用GUI窗口给予迁移开始的契机的方法。而GUI窗口是给予迁移的方法之一,也可以通过其他的方法给予迁移的契机。例如,可以通过命令行接口(CLI)给予迁移的契机。或者也可以根据迁移源服务器的统计信息、和迁移点管理表的统计信息以及迁移目的地服务器的统计信息,自动判断要向哪个服务器110迁移哪个服务器110的哪个迁移点。
图18是说明本发明的实施方式的管理计算机140根据统计信息控制迁移的执行的处理的流程图。
在图18的例子中,作为统计信息,使用各服务器的空置容量1602、CPU负荷1604以及网络带宽使用量1605。具体说,比较这些值和预先设定的阈值,根据该比较结果,控制迁移的执行。
此外,把在迁移源服务器列表1650中显示的各服务器110作为对象执行从以下说明的步骤1801到1807的处理。
管理计算机140的CPU144,最初判定空置容量1602的值是否比规定的阈值小(1801)。
在步骤1801判定比规定的阈值低时(即“是”时),考虑在特定的LDEV124中集中存储数据。在该情况下,为了分散在LDEV124中存储的数据量而希望执行迁移。在这一情况下,处理前进到步骤1804。
在这一情况下,CPU144在步骤1804,为了超过空置容量1602的阈值选择具有充分的使用容量1612的一个以上的迁移点。
另一方面,在步骤1801判定不低于阈值时(即”否”时),处理前进到步骤1802。
在步骤1802,CPU144判定CPU负荷1604的值是否高于规定的阈值。
在步骤1802判定高于阈值时(即“是”时),考虑在特定的服务器中处理的负荷集中。在该情况下,为了分散服务器110的CPU负荷,希望执行迁移。在这一情况下,处理前进到步骤1804。
在这一情况下,CPU144在步骤1804,根据读I/O信息1613以及写I/O信息1614计算由于客户机150对各迁移点的访问引起的CPU负荷。代替计算正确的CPU负荷,也可以计算近似的值。然后,CPU144选择一个以上的适当的迁移点,通过迁移使CPU负荷1604低于阈值。
另一方面,在步骤1802判定不高于阈值时(即“否”时),处理前进到步骤1803。
在步骤1803,CPU144判定网络带宽1605的值(即网络带宽的使用量)是否超过规定的阈值。
在步骤1803判定超过阈值时(即“是”时),考虑在特定的服务器上通信负荷集中。在这一情况下,为分散通信负荷,希望进行迁移。在该情况下,处理前进到步骤1804。
在这一情况下,CPU144在步骤1804,根据读字节数1613以及写字节数1614,计算各迁移点的每单位时间的网络带宽的使用量。然后,CPU144根据该计算结果,选择一个以上的适当的迁移点,使网络带宽1605低于阈值。
另一方面,在步骤1803判定不超过阈值时(即“否”时),数据量以及负荷的任何一方都不集中。在这一情况下,因为不需要执行迁移,所以结束处理。
CPU144,在执行步骤1804后,判定是否有适合迁移的条件的的服务器110(1805)。
具体说,CPU144从在步骤1804选择的具有迁移点数以上的空置LDEV数1623的服务器110中,选择预测满足下面的三个条件的服务器110,迁移在步骤1804选择的迁移点。
(1)空置容量1602不低于阈值。
(2)CPU负荷1604不超过规定的阈值。
(3)网络带宽1605不超过规定的阈值。
在步骤1805判定有适合迁移条件的服务器110时,通过执行向该服务器110的迁移,可以分散服务器110的负荷等。因此,CPU144把适合条件的服务器110作为迁移目的地来选择(1806)。在多个服务器110适合条件时,也可以把这些中的任意数量的服务器110作为迁移目的地选择。
接着CPU144向服务器110发送把在步骤1804选择的迁移点向在步骤1806选择的服务器110迁移的指示(1807)。在迁移多个迁移点时,可以把全部迁移点向一个服务器110迁移,也可以向多个服务器分散迁移。但是,需要在多个服务器110全体中能够准备已选择的迁移点数的空置LDEV数1623,而且需要全部服务器满足上述的条件(1)到(3)。
另一方面,在步骤1805判定没有适合迁移的条件的服务器110时,即使执行迁移也不能分散服务器110的负荷等。在这一情况下,结束处理。
通过执行以上的处理,能够保证全部服务器110的空置容量1602、CPU负荷1604、网络带宽1605在适当的范围。
此外,通过取得各统计信息的履历,也可以实现下面那样的处理。
例如,通过参照各迁移点的使用量1612、读I/O信息1613以及写I/O信息1614的履历,可以知道是否有大致仅在读入中使用的迁移点。大致仅在读入中使用的迁移点,也可以预先向具有适合档案(archive)用途的LDEV124的服务器110迁移。
另外,通过参照使用容量1612和写I/O信息1614的履历,可以发现有使用容量显著增加的倾向的迁移点。这样的迁移点,可以预先向具有空置容量1602特别丰富的、写入性能良好的LDEV124的服务器110迁移。
另外,通过参照读I/O字节数1613以及写I/O字节数1614的履历,了解各迁移点的网络带宽的消费量是否有增加倾向。网络带宽的消费量有增加倾向的迁移点也可以预先向具有特别大的网络带宽的服务器110迁移。
此外,为了避免通过短时间重复迁移而降低系统全体的性能,也可以暂时禁止被迁移过一次的迁移点迁移。
服务器110的统计信息(即迁移源服务器列表1650以及迁移目的地服务器列表1670中显示的信息),例如可以在管理计算机140显示迁移的窗口时取得,也可以周期性取得。在服务器110之间的通信中,可以使用LAN160,也可以使用服务器间通信路径135。
下面说明上述本发明的实施方式的效果。
作为实现对于客户机透明的、精细的迁移的现有技术的方法,有预先在存储系统100上准备多个小容量的文件系统的方法。下面参照图19比较本实施方式和上述现有技术的方法。
图19是比较本发明的实施方式和现有技术的方法的说明图。
为说明方便,假定有具有100GB的存储容量的存储系统1900A以及1900B。在存储系统1900A中使用本发明的实施方式,在存储系统1900B中使用现有技术的方法。存储系统1900A仅包含一个文件系统1901A。即,文件系统1901A的存储容量为100GB。另一方面,在存储系统1900B中预先准备小的文件系统。具体说,存储系统1900B包含各个存储容量为25GB的4个文件系统1901B、1902B、1903B以及1904B。
在存储系统1900A以及1900B中存储的文件的数据量分别是50GB。图19中划有斜线的区域,是存储系统1900A以及1900B的使用区域(即存储文件的区域)。在存储系统1900B中,在文件系统1901B以及1902B中分别存储20GB的数据,在文件系统1903B中存储10GB的数据,在文件系统1904B中不存储数据。
在图19的例子中,假定在各文件系统的使用率成为80%的时刻执行迁移。所谓文件系统的使用率,是对于在各文件系统中设定的存储容量实际正使用的容量的比例(%)。
在以上的条件下,参照图19,在存储系统1900中文件系统1901A的使用率是50%。因此,不需要执行迁移。对此,在存储系统1900B中,文件系统1901B以及1902B的使用率,为阈值的80%。因此,文件系统1901B以及1902B成为迁移的对象。这样,在文件系统1901B以及1902B中存储的文件集中,另一方面,在文件系统1903B以及1904B中有空置容量的余度。在存储系统1900B中,在迁移次数增加之外,最初分配的文件系统1904B有可能无用,在性能方面、在存储系统100的使用效率方面都浪费很多。
在预先制作好较小的文件系统、实现精细程度较细致的迁移的现有技术的方法中,为了效率更高地使用存储系统100,必须预先建立每一文件系统的较精细的运用计划,以便不发生如图19的例子那样的情况。但是,实际上在存储系统100的运用前建立较精细的预测是困难的。
对此,根据本发明的实施方式,通过根据需要分割文件系统执行迁移,能够把文件系统数抑制到必要最小限度。因此,本实施方式与图19的存储系统1900B所示方法相比,具有如下效果:能够抑制由于迁移处理的增加导致的性能低劣、以及容量效率的浪费。
以上,根据本发明的实施方式,在具有多个服务器110的存储系统100中,通过分割文件系统,能够从客户机透明地实现精细程度较细致的迁移。这能够在多个服务器110之间实现更好的负荷均衡,有助于提高存储系统100的整体性能。

Claims (20)

1.一种存储系统,其具有多个服务器、以及与所述多个服务器连接的盘子系统,其特征在于,
所述各服务器具有与网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,
所述盘子系统具有包含一个以上的文件系统的一个以上的逻辑设备,
对所述文件系统赋予在所述存储系统内唯一的第一识别符,
对在所述文件系统内包含的目录中的至少一个目录赋予在所述存储系统内唯一的第二识别符,
对在所述文件系统内包含的文件赋予在所述文件系统内唯一的第三识别符,
所述处理器,通过所述第二识别符以及所述第三识别符,识别比赋予了所述第二识别符的所述目录下位的文件。
2.根据权利要求1所述的存储系统,其特征在于,
所述存储器存储将所述目录、以及对所述目录赋予的所述第二识别符对应关联的信息。
3.根据权利要求1所述的存储系统,其特征在于,
所述多个服务器包含第一服务器以及第二服务器,
所述第一服务器具有的所述处理器,当通过所述接口接收到把赋予了所述第二识别符的所述目录迁移到所述第二服务器的指示时,向所述第二服务器发送比所述迁移的对象的所述目录下位的所述文件、以及对所述迁移的对象的所述目录赋予的所述第二识别符,
所述第二服务器具有的所述处理器,通过所述第三识别符和从所述第一服务器发送的所述第二识别符,识别比从所述第一服务器发送的所述迁移的对象的目录下位的文件。
4.根据权利要求3所述的存储系统,其特征在于,
所述第二服务器具有的所述处理器,对于比从所述第一服务器发送的所述迁移的对象的目录下位的文件,通过为了由所述第一服务器具有的所述处理器识别该文件而使用的所述第三识别符、以及从所述第一服务器发送的所述第二识别符进行识别。
5.根据权利要求3所述的存储系统,其特征在于,
所述第二服务器具有的所述处理器,当从在所述网络上连接的客户计算机接收到指定包含所述第二识别符以及所述第三识别符的文件句柄的访问请求时,对由接收到的所述第二识别符以及所述第三识别符所识别的文件进行访问。
6.一种计算机系统,具有存储系统、客户计算机、和连接所述存储系统以及所述客户计算机的网络,其特征在于,
所述存储系统具有多个服务器、以及与所述多个服务器连接的盘子系统,
所述各服务器,具有与所述网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,
所述盘子系统具有包含一个以上的文件系统的一个以上的逻辑设备,
对所述文件系统赋予在所述存储系统内唯一的第一识别符,
对在所述文件系统内包含的目录中的至少一个目录赋予在所述存储系统内唯一的第二识别符,
对在所述文件系统内包含的文件赋予在所述文件系统内唯一的第三识别符,
所述处理器,通过所述第二识别符以及所述第三识别符,识别比赋予所述第二识别符的所述目录下位的文件。
7.根据权利要求6所述的计算机系统,其特征在于,
所述存储器存储将所述目录、以及对所述目录赋予的所述第二识别符对应关联的信息。
8.根据权利要求6所述的计算机系统,其特征在于,
所述多个服务器包含第一服务器以及第二服务器,
所述第一服务器具有的所述处理器,当通过所述接口接收到把赋予了所述第二识别符的所述目录迁移到所述第二服务器的指示时,向所述第二服务器发送比所述迁移的对象的所述目录下位的所述文件、以及对所述迁移的对象的所述目录赋予的所述第二识别符,
所述第二服务器具有的所述处理器,通过所述第三识别符和从所述第一服务器发送的所述第二识别符,识别比从所述第一服务器发送的所述迁移的对象的目录下位的文件。
9.根据权利要求8所述的计算机系统,其特征在于,
所述第二服务器具有的所述处理器,对于比从所述第一服务器发送的所述迁移的对象的目录下位的文件,通过为了由所述第一服务器具有的所述处理器识别该文件而使用的所述第三识别符、以及从所述第一服务器发送的所述第二识别符进行识别。
10.根据权利要求8所述的计算机系统,其特征在于,
所述第二服务器具有的所述处理器,当从所述客户计算机接收到指定包含所述第二识别符以及所述第三识别符的文件句柄的访问请求时,对由接收到的所述第二识别符以及所述第三识别符识别的文件进行访问。
11.根据权利要求6所述的计算机系统,其特征在于,
所述计算机系统还具有管理计算机,
所述管理计算机具有与所述网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,
所述计算机系统保存管理信息,该管理信息管理已经赋予所述文件系统的所述第一识别符的值、以及已经赋予所述目录的所述第二识别符的值,
所述管理计算机具有的所述处理器,参照所述管理信息,将尚未对所述文件系统以及所述目录的任何一个赋予的值,作为所述第二识别符,对尚未赋予所述第二识别符的所述目录进行赋予。
12.根据权利要求8所述的计算机系统,其特征在于,
所述计算机系统还具有管理计算机,
所述管理计算机具有与所述网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,
所述管理计算机具有的所述处理器,根据关于文件访问的统计信息,判定是否执行将所述目录作为对象的迁移。
13.根据权利要求12所述的计算机系统,其特征在于,
所述统计信息是所述各服务器具有的处理器的使用率,
所述管理计算机具有的所述处理器,在所述第一服务器具有的处理器的使用率超过规定的阈值时,选择在所述第一服务器管理的所述文件系统中包含的、并且赋予了所述第二识别符的所述目录,向所述第一服务器发送执行把所述已选择的目录作为对象的迁移的指示。
14.一种计算机系统的控制方法,所述计算机系统具有存储系统、客户计算机、和连接所述存储系统以及所述客户计算机的网络,其特征在于,
所述存储系统具有包含第一服务器以及第二服务器的多个服务器、和与所述多个服务器连接的盘子系统,
所述各服务器,具有与所述网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,
所述盘子系统具有包含一个以上的文件系统的一个以上的逻辑设备,
对所述文件系统赋予在所述存储系统内唯一的第一识别符,
对在所述文件系统内包含的目录中的至少一个目录赋予在所述存储系统内唯一的第二识别符,
对在所述文件系统内包含的文件赋予在所述文件系统内唯一的第三识别符,
所述方法,包括如下步骤:
所述第一服务器具有的所述处理器,当通过所述接口接收到把赋予了所述第二识别符的所述目录迁移到所述第二服务器的指示时,向所述第二服务器发送比所述迁移的对象的所述目录下位的所述文件、以及对所述迁移的对象的所述目录赋予的所述第二识别符,
所述第二服务器具有的所述处理器,通过从所述第一服务器发送的所述第二识别符和所述第三识别符,识别比从所述第一服务器发送的所述迁移的对象的目录下位的文件。
15.根据权利要求14所述的方法,其特征在于,
所述存储器存储将所述目录、以及对所述目录赋予的所述第二识别符对应关联的信息。
16.根据权利要求14所述的方法,其特征在于,
所述方法,包括如下步骤:所述第二服务器具有的所述处理器,对于比从所述第一服务器发送的所述迁移的对象的目录下位的文件,通过为了由所述第一服务器具有的所述处理器识别该文件而使用的所述第三识别符、以及从所述第一服务器发送的所述第二识别符进行识别。
17.根据权利要求14所述的方法,其特征在于,
所述方法,包括如下步骤:所述第二服务器具有的所述处理器,当从在所述客户计算机接收到指定包含所述第二识别符以及所述第三识别符的文件句柄的访问请求时,对由接收到的所述第二识别符以及所述第三识别符识别的文件进行访问。
18.根据权利要求14所述的方法,其特征在于,
所述计算机系统还具有管理计算机,
所述管理计算机具有与所述网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,
所述计算机系统保存管理信息,该管理信息管理已经赋予所述文件系统的所述第一识别符的值、以及已经赋予所述目录的所述第二识别符的值,
所述方法,包括如下步骤:所述管理计算机具有的所述处理器,参照所述管理信息,将尚未对所述文件系统以及所述目录的任何一个赋予的值,作为所述第二识别符,对尚未赋予所述第二识别符的所述目录进行赋予。
19.根据权利要求14所述的方法,其特征在于,
所述计算机系统还具有管理计算机,
所述管理计算机具有与所述网络连接的接口、与所述接口连接的处理器、以及与所述处理器连接的存储器,
所述方法,包括如下步骤:所述管理计算机具有的所述处理器,根据关于文件访问的统计信息,判定是否执行将所述目录作为对象的迁移。
20.根据权利要求19所述的方法,其特征在于,
所述统计信息是所述各服务器具有的处理器的使用率,
所述方法,包括如下步骤:所述管理计算机具有的所述处理器,在所述第一服务器具有的处理器的使用率超过规定的阈值时,选择在所述第一服务器管理的文件系统中包含的、并且赋予了所述第二识别符的所述目录,向所述第一服务器发送执行把所述已选择的目录作为对象的迁移的指示。
CN200610168701A 2006-04-07 2006-12-19 Gns中的目录单位迁移 Expired - Fee Related CN100576189C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006106255A JP4772569B2 (ja) 2006-04-07 2006-04-07 共通名前空間においてディレクトリ単位のマイグレーションを実行するシステム及び方法
JP2006106255 2006-04-07

Publications (2)

Publication Number Publication Date
CN101051290A true CN101051290A (zh) 2007-10-10
CN100576189C CN100576189C (zh) 2009-12-30

Family

ID=38180274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200610168701A Expired - Fee Related CN100576189C (zh) 2006-04-07 2006-12-19 Gns中的目录单位迁移

Country Status (4)

Country Link
US (1) US7587436B2 (zh)
EP (1) EP1843245A3 (zh)
JP (1) JP4772569B2 (zh)
CN (1) CN100576189C (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103748564A (zh) * 2011-10-28 2014-04-23 株式会社日立制作所 存储系统及对象管理方法
WO2023036005A1 (zh) * 2021-09-08 2023-03-16 华为技术有限公司 信息处理方法及装置

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8745106B2 (en) * 2006-08-30 2014-06-03 Red Hat, Inc. Numeric identifier assignment in a networked computer environment
TW200925858A (en) * 2007-12-06 2009-06-16 Ind Tech Res Inst Virtual file managing system and method for building system configuration and accessing file thereof
US20090319736A1 (en) * 2008-06-24 2009-12-24 Hitachi, Ltd. Method and apparatus for integrated nas and cas data backup
JP2010108409A (ja) 2008-10-31 2010-05-13 Hitachi Ltd ストレージ管理方法及び管理サーバ
US8135912B2 (en) 2009-05-18 2012-03-13 Hola Networks, Ltd. System and method of increasing cache size
US8560604B2 (en) 2009-10-08 2013-10-15 Hola Networks Ltd. System and method for providing faster and more efficient data communication
US9507799B1 (en) 2009-12-08 2016-11-29 Netapp, Inc. Distributed object store for network-based content repository
US8484259B1 (en) 2009-12-08 2013-07-09 Netapp, Inc. Metadata subsystem for a distributed object store in a network storage system
US20110137966A1 (en) * 2009-12-08 2011-06-09 Netapp, Inc. Methods and systems for providing a unified namespace for multiple network protocols
US8180813B1 (en) 2009-12-08 2012-05-15 Netapp, Inc. Content repository implemented in a network storage server system
US9275678B2 (en) * 2010-03-25 2016-03-01 International Business Machines Corporation Primary storage media with associated secondary storage media for efficient data management
US9063666B2 (en) * 2010-03-25 2015-06-23 International Business Machines Corporation File index, metadata storage, and file system management for magnetic tape
US9430155B2 (en) 2010-03-25 2016-08-30 International Business Machines Corporation File index, metadata storage, and file system management for magnetic tape
US9043637B2 (en) * 2010-12-14 2015-05-26 Hitachi, Ltd. Failure recovery method in information processing system and information processing system
US8856073B2 (en) 2010-12-14 2014-10-07 Hitachi, Ltd. Data synchronization among file storages using stub files
IL210169A0 (en) 2010-12-22 2011-03-31 Yehuda Binder System and method for routing-based internet security
US8869136B2 (en) * 2011-01-05 2014-10-21 International Business Machines Corporation Calculating migration points for application migration
CA2778733A1 (en) * 2011-05-31 2012-11-30 Research In Motion Limited Method and system for data synchronization including file system abstraction
WO2013038442A1 (en) * 2011-09-13 2013-03-21 Hitachi, Ltd. Storage system comprising flash memory, and storage control method
US9043567B1 (en) * 2012-03-28 2015-05-26 Netapp, Inc. Methods and systems for replicating an expandable storage volume
CA2888116C (en) * 2012-10-12 2018-03-27 A9.Com, Inc. Dynamic search partitioning
US9507750B2 (en) 2012-10-12 2016-11-29 A9.Com, Inc. Dynamic search partitioning
EP2836902B1 (en) 2013-07-02 2018-12-26 Hitachi Data Systems Engineering UK Limited Method and apparatus for migration of a virtualized file system, data storage system for migration of a virtualized file system, and file server for use in a data storage system
US9460111B2 (en) 2013-07-02 2016-10-04 Hitachi Data Systems Engineering UK Limited Method and apparatus for virtualization of a file system, data storage system for virtualization of a file system, and file server for use in a data storage system
US9460097B2 (en) 2013-07-02 2016-10-04 Hitachi Data Systems Engineering UK Limited Method and apparatus for migration of a virtualized file system, data storage system for migration of a virtualized file system, and file server for use in a data storage system
US9241044B2 (en) 2013-08-28 2016-01-19 Hola Networks, Ltd. System and method for improving internet communication by using intermediate nodes
JP5681783B2 (ja) * 2013-12-26 2015-03-11 株式会社日立製作所 情報処理システムにおける障害復旧方法、及び情報処理システム
US20150220438A1 (en) * 2014-02-04 2015-08-06 Netapp, Inc. Dynamic hot volume caching
US11057446B2 (en) 2015-05-14 2021-07-06 Bright Data Ltd. System and method for streaming content from multiple servers
CN105897457A (zh) * 2015-12-09 2016-08-24 乐视云计算有限公司 服务器群组的服务升级方法及系统
US10474629B2 (en) * 2016-09-28 2019-11-12 Elastifile Ltd. File systems with global and local naming
US10579587B2 (en) 2017-01-03 2020-03-03 International Business Machines Corporation Space management for a hierarchical set of file systems
US10657102B2 (en) 2017-01-03 2020-05-19 International Business Machines Corporation Storage space management in union mounted file systems
US10585860B2 (en) 2017-01-03 2020-03-10 International Business Machines Corporation Global namespace for a hierarchical set of file systems
US10592479B2 (en) 2017-01-03 2020-03-17 International Business Machines Corporation Space management for a hierarchical set of file systems
US10579598B2 (en) 2017-01-03 2020-03-03 International Business Machines Corporation Global namespace for a hierarchical set of file systems
US10649955B2 (en) 2017-01-03 2020-05-12 International Business Machines Corporation Providing unique inodes across multiple file system namespaces
US11190374B2 (en) 2017-08-28 2021-11-30 Bright Data Ltd. System and method for improving content fetching by selecting tunnel devices
EP3770773B1 (en) 2017-08-28 2024-01-24 Bright Data Ltd. Method for improving content fetching by selecting tunnel devices
EP4236263A3 (en) 2019-02-25 2023-09-06 Bright Data Ltd. System and method for url fetching retry mechanism
US11411922B2 (en) 2019-04-02 2022-08-09 Bright Data Ltd. System and method for managing non-direct URL fetching service
CN114691015A (zh) * 2020-12-29 2022-07-01 华为技术有限公司 存储系统管理方法、存储系统及计算程序产品
CN114816571B (zh) * 2022-04-15 2023-06-16 西安广和通无线通信有限公司 外挂闪存的方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671773B2 (en) 2000-12-07 2003-12-30 Spinnaker Networks, Llc Method and system for responding to file system requests
JP4168626B2 (ja) * 2001-12-06 2008-10-22 株式会社日立製作所 記憶装置間のファイル移行方法
US6985914B2 (en) 2002-02-20 2006-01-10 Emc Corporation Cluster meta file system of file system cells managed by respective data movers of a network file server
US7886299B2 (en) * 2004-06-01 2011-02-08 Hitachi, Ltd. Method of dynamically balancing workload of a storage system
JP4281658B2 (ja) * 2004-09-24 2009-06-17 日本電気株式会社 ファイルアクセスサービスシステムとスイッチ装置及びクオータ管理方法並びにプログラム
JP4451293B2 (ja) * 2004-12-10 2010-04-14 株式会社日立製作所 名前空間を共有するクラスタ構成のネットワークストレージシステム及びその制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103748564A (zh) * 2011-10-28 2014-04-23 株式会社日立制作所 存储系统及对象管理方法
CN103748564B (zh) * 2011-10-28 2016-06-29 株式会社日立制作所 存储系统及对象管理方法
WO2023036005A1 (zh) * 2021-09-08 2023-03-16 华为技术有限公司 信息处理方法及装置

Also Published As

Publication number Publication date
EP1843245A2 (en) 2007-10-10
JP4772569B2 (ja) 2011-09-14
CN100576189C (zh) 2009-12-30
US7587436B2 (en) 2009-09-08
EP1843245A3 (en) 2009-10-21
JP2007280099A (ja) 2007-10-25
US20070239655A1 (en) 2007-10-11

Similar Documents

Publication Publication Date Title
CN101051290A (zh) Gns中的目录单位迁移
CN1581877A (zh) 存储系统
CN1684029A (zh) 存储系统
CN1794729A (zh) 数据配置管理方法及系统和装置以及程序
CN101075177A (zh) 计算机系统
CN1945520A (zh) Dkc内存储池及虚拟卷中的数据运用管理方法
CN1311328C (zh) 存储装置系统
CN1260643C (zh) 数据处理系统和方法、信息处理装置和方法
CN1241134C (zh) 存储域管理系统
CN1269056C (zh) 多台网络存储器的虚拟一元化方法及装置
CN1881903A (zh) 文件版本管理装置及方法和程序
CN1752947A (zh) 存储装置、存储控制方法,以及计算机产品
CN1773510A (zh) 存储器管理系统与方法以及程序
CN1453715A (zh) 拥有虚拟资源的存储系统
CN1498367A (zh) 信息处理装置、存储器管理装置、存储器管理方法及信息处理方法
CN1299177C (zh) 数据管理装置、计算机系统及数据处理方法
CN101042676A (zh) 存储系统以及存储区域释放方法以及存储装置
CN1959618A (zh) 存储系统
CN1669001A (zh) 用于服务器整合环境的业务连续性策略
CN101065727A (zh) 虚拟化窗口信息的方法和设备
CN1873605A (zh) 存储系统以及结构变更方法
CN1608257A (zh) 包括相关矩阵和基于量度分析的聚集系统资源分析
CN1318163A (zh) 可选择性定义对应用程序功能部件访问的系统和方法
CN1581091A (zh) 多点远程拷贝系统
CN1172239C (zh) 执行移动对象的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20091230

Termination date: 20161219

CF01 Termination of patent right due to non-payment of annual fee