CN109857335B - 系统及其控制方法以及存储介质 - Google Patents
系统及其控制方法以及存储介质 Download PDFInfo
- Publication number
- CN109857335B CN109857335B CN201810986526.XA CN201810986526A CN109857335B CN 109857335 B CN109857335 B CN 109857335B CN 201810986526 A CN201810986526 A CN 201810986526A CN 109857335 B CN109857335 B CN 109857335B
- Authority
- CN
- China
- Prior art keywords
- storage
- control unit
- node
- storage control
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/202—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
- G06F11/2023—Failover techniques
- G06F11/2033—Failover techniques switching over of hardware resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
- G06F3/0607—Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2089—Redundant storage control functionality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2089—Redundant storage control functionality
- G06F11/2092—Techniques of failing over between control units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2094—Redundant storage or storage space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0635—Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0689—Disk arrays, e.g. RAID, JBOD
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供具有较高的扩展性的系统及其控制方法以及存储有程序的存储介质。对上位装置提供了一个或多个虚拟的第一逻辑卷,在存储节点内,与配置于该存储节点的存储控制部对应地生成了与任一个第一逻辑卷对应的虚拟的第二逻辑卷,将第一和第二逻辑卷之间的对应关系作为映射信息进行管理,在从上位装置发来了以第一逻辑卷为I/O目的地的I/O请求的情况下,基于映射信息,确定该I/O请求的分配目的地的存储节点,在确定的存储节点为本节点的情况下,将该I/O请求分配给本节点内的该存储控制部,在确定的存储节点为其它的存储节点的情况下,将该I/O请求分配给该存储节点。
Description
技术领域
本发明涉及系统及其控制方法以及存储介质,例如,适用于具备各自安装有一个或多个SDS(Software Defined Storage)的多个存储节点的信息处理系统。此外,以下,SDS是指通过将具有存储功能的软件安装于通用的服务器装置而构建的存储装置。
背景技术
目前,用于存储装置的控制器的现有的控制软件(存储控制软件)是与安装该存储控制软件的硬件对应的专用品。因此,存在如下问题,若仅将该存储控制软件直接安装于裸机服务器,则由于架构的不同而难以组装向外扩展的结构。
这是由于,该现有的存储控制软件是仅以在本存储装置内完成的处理为对象的结构,因此,不能在向外扩展的结构中利用该现有的存储控制软件。此外,下述专利文献1中公开了,HA结构的两台存储装置协作来进行卸载数据复制,但这也停留于两台存储装置的协作。
另外,通过该现有的存储控制软件执行的共享存储器的处理依赖于硬件,因此,还存在通用的服务器装置中不能执行同样处理的问题。
与之相对,近年来,通过向通用的服务器装置安装存储控制软件而构建的SDS的开发不断发展。SDS不需要专用的硬件,扩展性也较高,因此其需求也处于增加倾向。作为与这种SDS相关的技术,例如下述专利文献2中公开有在SDS结构的服务器间传送I/O(Input/Output)的技术。
现有技术文献
专利文献
专利文献1:美国专利申请公开第2017/0017433号说明书
专利文献2:美国专利申请公开第2016/0173598号说明书
发明内容
发明所要解决的课题
但是,近年来,企业和政府机关等中蓄积的数据量正在稳步增加。在考虑这种状况的情况下,优选存储装置为能够容易向外扩展的结构。
另外,向外扩展后还考虑了,如果能够以上级装置不在意应作为I/O请求的发行目的地的存储装置就能够容易地访问期望的数据的方式构建系统,则不需要向外扩展后的上级装置的设定,能够提高系统的扩展性。
本发明是考虑了以上的点而研发的,提出了能够提高扩展性的系统及其控制方法以及程序。
用于解决课题的技术方案
为了解决所述的课题,本发明提供一种包含由多个存储节点构成的集群的系统,所述存储节点包括:执行与分配来的I/O(Input/Output)请求相应的I/O处理的存储控制部;和将从上级装置发来的所述I/O请求分配给本节点内的所述存储控制部或对应的其它所述存储节点的前端部,对所述上级装置提供了作为用于读写数据的存储区域的一个或多个虚拟的第一逻辑卷,并且在所述存储节点内,与配置于该存储节点的所述存储控制部对应地生成了与任一个所述第一逻辑卷对应的虚拟的第二逻辑卷,所述上位装置将以所述第一逻辑卷为I/O目的地的所述I/O请求发送至所述存储节点,所述前端部将所述第一逻辑卷与所述第二逻辑卷之间的对应关系作为映射信息进行管理,在从所述上级装置发来了所述I/O请求的情况下,基于所述映射信息,确定配置有经由所述第二逻辑卷与该I/O请求中作为I/O目的地而指定的所述第一逻辑卷对应的所述存储控制部的所述存储节点,在所确定的所述存储节点是本节点的情况下,将该I/O请求分配给本节点内的该存储控制部,在所确定的所述存储节点是其它所述存储节点的情况下,将该I/O请求分配给该存储节点。
本发明中还提供一种包含由多个存储节点构成的集群的系统的控制方法,其中,所述存储节点包括执行与分配来的I/O(Input/Output)请求相应的I/O处理的存储控制部,对所述上级装置提供作了为用于读写数据的存储区域的一个或多个虚拟的第一逻辑卷,所述系统的控制方法包括:第一步骤,在所述存储节点内,与配置于该存储节点的所述存储控制部对应地生成与任一个所述第一逻辑卷对应的虚拟的第二逻辑卷,将所述第一逻辑卷与所述第二逻辑卷之间的对应关系作为映射信息在各存储节点分别进行管理;第二步骤,在从所述上级装置发来了以所述第一逻辑卷为I/O目的地的所述I/O请求的情况下,基于所述映射信息,确定配置有经由所述第二逻辑卷与该I/O请求中作为I/O目的地而指定的所述第一逻辑卷对应的所述存储控制部的所述存储节点;和第三步骤,在确定的所述存储节点是本节点的情况下,将该I/O请求分配给本节点内的该存储控制部,在确定的所述存储节点是其它所述存储节点的情况下,将该I/O请求分配给该存储节点。
本发明中还提供一种程序,其中在包括由多个存储节点构成的集群的系统中,在所述存储节点中执行,所述存储节点具有执行与分配来的I/O(Input/Output)请求相应的I/O处理的存储控制部,对所述上级装置提供了作为用于读写数据的存储区域的一个或多个虚拟的第一逻辑卷,所述程序使所述存储节点执行包括以下步骤的处理:第一步骤,在所述存储节点内,与配置于该存储节点的所述存储控制部对应生成与任意个所述第一逻辑卷对应的虚拟的第二逻辑卷,将所述第一逻辑卷与所述第二逻辑卷之间的对应关系作为映射信息进行管理;第二步骤,在由所述上级装置发来了以所述第一逻辑卷为I/O目的地的所述I/O请求的情况下,基于所述映射信息,确定配置有经由所述第二逻辑卷与该I/O请求中作为I/O目的地而指定的所述第一逻辑卷对应的所述存储控制部的所述存储节点;和第三步骤,在确定的所述存储节点为本节点的情况下,将该I/O请求分配给本节点内的该存储控制部,在确定的所述存储节点为其它的所述存储节点的情况下,将该I/O请求分配给该存储节点。
根据本发明的系统及其控制方法以及程序,不管存储节点的向外扩展的有无,上位装置均能够不在意I/O请求的发行目的地的存储节点地进行期望的数据的读写。
发明效果
根据本发明,能够实现可提高扩展性的系统及其控制方法以及程序。以上所述的以外的课题、结构及效果通过用于实施以下发明的方式的说明进行阐明。
附图说明
图1是表示本实施方式的信息处理系统的整体结构的框图。
图2是表示存储节点的硬件结构的框图。
图3是表示存储节点的软件结构的框图。
图4是用于说明存储节点的存储区域的对应关系的框图。
图5是表示存储控制部对表的结构例的图表。
图6是表示前端表卷表的结构例的图表。
图7是表示映射表的结构例的图表。
图8是表示前端目标表的结构例的图表。
图9是表示存储控制部信息管理表的结构例的图表。
图10是表示全局池卷表的结构例的图表。
图11是用于说明各表间的信息的对应关系的概念图。
图12是表示内部卷生成时的处理的流程的顺序图。
图13是表示在集群内的存储节点产生了故障的情况下,在该集群中执行的一连串的处理的流程的顺序图。
图14是表示在集群中增设存储节点的情况下,在该集群中执行的一连串的处理的流程的顺序图。
图15是表示本信息处理系统中执行的写处理的流程的顺序图。
图16是表示本信息处理系统中执行的读处理的流程的顺序图。
具体实施方式
以下,参照附图详细说明本发明的一个实施方式。以下的记载及附图是用于说明本发明的示例,为了说明的明确化,适宜进行省略及简化。另外,实施方式中说明的特征的组合的全部在发明的解决方案中并非必须。本发明不限制于实施方式,与本发明的思想一致的所有的应用例包含于本发明的技术的范围。本发明如果是本领域技术人员,则能够在本发明的范围内进行各种追加及变更等。本发明即使在其它各种方式中也能够实施。只要没有特别限定,各构成要素也可以是多个,也可以是单个。
在以下的说明中,有时用“表”、“表格”、“列表”、“队列”等说明各种信息,但各种信息也可以以这些以外的数据结构表示。为了表示不依赖于数据结构,有时将“XX表”、“XX列表”等称为“XX信息”。在说明各信息的内容时,使用“标识信息”、“标识符”、“名”、“ID”、“编号”等的表示,但它们可进行相互置换。
另外,以下的说明中,在将同种要素不区分而进行说明的情况下,使用参照符号或参照符号中的共通编号,在将同种要素进行区分说明的情况下,有时使用该要素的参照符号或代替参照符号而使用分配给该要素的ID。
另外,以下的说明中,有时说明执行程序而进行的处理,但程序由至少一个以上的处理器(例如CPU)执行,由此,适当地使用存储资源(例如存储器)和/或接口器件(例如通信端口)来进行规定处理,因此,处理的主体也可以为处理器。同样,执行程序而进行的处理的主体也可以是具有处理器的控制器、装置、系统、计算机、节点、存储系统、存储装置、服务器、管理计算机、客户机或主机。执行程序而进行的处理的主体(例如处理器)也可以包含进行处理的一部分或全部的硬件电路。例如,执行程序而进行的处理的主体也可以包含执行加密化和解码、或压缩和解压缩的硬件电路。处理器按照程序进行动作,由此,作为实现预定功能的功能部进行动作。包含处理器的装置和系统是包含这些功能部的装置和系统。
程序也可以从程序源安装于计算机那样的装置。程序源也可以是例如程序分发服务器或计算机可读取的存储介质。在程序源为程序分发服务器的情况下,程序分发服务器也可以包含处理器(例如CPU)和存储资源,存储资源进一步存储分发程序和作为分发对象的程序。而且,程序分发服务器的处理器执行分发程序,由此,程序分发服务器的处理器也可以将分发对象的程序分发至其它计算机。另外,以下的说明中,两个以上的程序也可以作为一个程序实现,一个程序也可以作为两个以上的程序实现。
(1)本实施方式的信息处理系统的结构
图1是表示本实施方式的信息处理系统1的结构的图。该信息处理系统1具备多个计算节点2、多个存储节点3、管理节点4。
计算节点2、存储节点3和管理节点4之间经由例如由光纤通道(FC:FibreChannel)、以太网(注册商标)、InfiniBand或无线LAN(Local Area Network)等构成的存储服务网络5连接。另外,各存储节点3之间经由由以太网(注册商标)、InfiniBand或无线LAN等构成的后端网络6连接。
但是,存储服务网络5和后端网络6也可以由同一网络构成,另外,各计算节点2和各存储节点3也可以连接于存储服务网络5或后端网络6以外的管理用网络。
计算节点2是相对于存储节点3作为主机(上级装置)发挥作用的通用的计算机装置。计算节点2也可以是虚拟机那样的虚拟的计算机装置。计算节点2根据用户操作或来自安装的应用程序的请求,经由存储服务网络5向存储节点3发送读请求或写请求(以下,适宜将它们统一称为I/O(Input/Output)请求)。
存储节点3是对计算节点2提供用于读写数据的存储区域的通用的物理服务器装置。如图2所示,存储节点3具备CPU(Central Processing Unit)10、存储器11和多个存储装置12、第一和第二通信装置13、14,CPU10和存储装置12以及第一和第二通信装置13、14经由内部网络15连接。各存储节点3中,CPU10、存储器11、存储装置12、第一和第二通信装置13、14各自具有一个以上。
CPU10是管理存储节点3整体的动作控制的处理器。另外,存储器11由SRAM(StaticRAM(Random Access Memory))或DRAM(Dynamic RAM)等的易失性的半导体存储器构成,作为CPU10的工作存储器,为了暂时性地保持各种程序以及必要的数据而利用。通过至少一个以上的CPU10执行存储于存储器11的程序,而执行后述那样的作为存储节点3整体的各种处理。
存储装置12由NVMe(Non-Volatile Memory)驱动器或SAS(Serial Attached SCSI(Small Computer System Interface))驱动器、SATA(Serial ATA(Advanced TechnologyAttachment))、SSD(Solid State Drive)或SCM(StorageClass Memory)等的大容量的非易失性的存储装置构成,对计算节点2提供用于读写数据的存储区域。
第一通信装置13是存储节点3用于经由存储服务网络5与计算节点2和管理节点4进行通信的接口,由例如FC卡或无线LAN卡等构成。第一通信装置13进行与计算节点2和管理节点的通信时的协议控制。
第二通信装置14是存储节点3用于经由后端网络6与其它存储节点3进行通信的接口,由例如NIC(Network Interface Card)或无线LAN卡等构成。第二通信装置14进行与其它存储节点3的通信时的协议控制。
此外,在本实施方式的情况下,如图1所示,各存储节点3与其它的一个或多个存储节点3一起汇总成称为集群7的组,以集群7单位进行管理。图1的例子中,示例仅设定一个集群7的情况,但也可以在信息处理系统1内设定多个集群7。集群7也可以称为分散存储系统。
管理节点4是本信息处理系统1的管理者(以下将其称为系统管理者)为了进行本信息处理系统1的结构管理和各种设定而利用的计算机装置。管理节点4根据系统管理者的操作,对计算节点2和存储节点3发送必要的指示。
图3表示本实施方式的存储节点3的逻辑结构。如该图3所示,各存储节点3具备数据平面24和控制平面27,数据平面24具有前端部20、一个或多个存储控制部21、容量控制部22以及后端部23,控制平面27具有集群控制部25和节点控制部26。数据平面24是执行与数据的读写相关的I/O处理的功能部,控制平面27是控制集群7(图)整体和本节点的功能部。
前端部20是作为与存储节点3的向外扩展相关的I/O处理的前端发挥作用的软件。例如,前端部20在由计算节点2发送了I/O请求的情况下,将该I/O请求分配给要执行该I/O请求的本节点内的存储控制部21或配置有要执行该I/O请求的存储控制部21的其它的存储节点3。
存储控制部21是作为SDS(Software Defined Storage)的控制器发挥作用的软件。存储控制部21也可以称为存储控制软件或存储控制程序。存储控制部21受理由前端部20发送的来自计算节点2的I/O请求,并将与接收到的I/O请求相应的I/O指令向后端部23进行分发。
在此,在本实施方式的情况下,安装于存储节点3的各存储控制部21与配置于其它存储节点3的其它的存储控制部21一起设定为构成冗余化结构的配对。以下,将该配对称为存储控制部对28。
此外,图3中表示由两个存储控制部21构成一个存储控制部对28的情况,以下,也设为由两个存储控制部21构成存储控制部对28的情况并进行说明,但也可以利用3个以上的存储控制部21形成一个冗余化结构。
存储控制部对28中,一个存储控制部21设定成能够接收来自计算节点2的I/O请求的状态(为当前用存储控制部的状态,以下将其称为主动模式),另一存储控制部21设定成不接收来自计算节点2的I/O请求的状态(为待机存储控制部的状态,以下将其称为被动模式)。
而且,存储控制部对28中,在设定成主动模式的存储控制部(以下,适宜将其称为主动存储控制部)21或配置有该主动存储控制部21的存储节点3中产生故障的情况下等,将到此为止设定成被动模式的存储控制部(以下,适宜将其称为被动存储控制部)21的状态切换成主动模式。由此,在主动存储控制部21不可工作的情况下,能够将该主动存储控制部21执行的I/O处理利用构成同一个存储控制部对28的被动存储控制部21进行接管。
容量控制部22是具有对配置于本节点内的主动存储控制部21所构成的存储控制部对28,分配本节点内或其它节点内的存储装置12(图2)所提供的物理存储区域的功能的软件。容量控制部22也可以称为容量控制软件或容量控制程序。
另外,后端部23是作为存储节点3的I/O处理的后端发挥作用的软件。例如,后端部23根据由主动存储控制部21发来的上述I/O指令,对该主动存储控制部21所构成的存储控制部对28,在由容量控制部22分配的存储区域读写数据。
另一方面,集群控制部25是具有执行与集群7整体相关的控制处理和与集群7的向外扩展相关的控制处理的功能的软件。集群控制部25也可以称为集群控制软件或集群控制程序。本信息处理系统1中,设定分别安装于集群7内的各存储节点3的集群控制部25中的一个集群控制部25作为主机,仅设定为主机的集群控制部(以下,将其称为主集群控制部)25一边保持集群7整体的匹配性一边执行各种的控制处理。
例如,主集群控制部25响应来自管理节点4的请求在集群7内设定存储控制部对28,并将设定的存储控制部对28登记到关于图5后述的存储控制部对表30中来进行管理。
另外,主集群控制部25以外的集群控制部25具有用于主集群控制部25的故障,设定成热待机(Hot stand-by)模式或暖待机(Warm stand-by)模式中的任一动作模式。
热待机模式是在主集群控制部25或安装有该主集群控制部25的存储节点3中产生故障时等,以立即接管到此为止由主集群控制部25执行的处理的方式维持启动的待机状态的动作模式。
热待机模式的集群控制部25以立即接管主集群控制部25执行的处理的方式,保持与上述的存储控制部对表30(图5)等的主集群控制部25所管理的所有管理信息相同的内容的管理信息。
而且,在主集群控制部25保持的管理信息被更新了的情况下,该更新前后的差作为差数据从主集群控制部25经由后端网络6赋予至所有的热待机模式的集群控制部25,基于该差数据,该集群控制部25保持的管理信息通过该集群控制部25同样更新为主集群控制部25保持的管理信息。
这样,热待机模式的集群控制部25总是保持与主集群控制部25相同的管理信息,由此,即使在主集群控制部25等中产生故障,且将到此为止为热待机模式的集群控制部25切换成“主”的情况下,也可至此为止利用将最初的主集群控制部25所执行的控制处理切换成“主”的集群控制部(主集群控制部)25进行接管。
另外,暖待机模式是处于停止启动的待机状态的动作模式。在设定成热待机模式的集群控制部的数量成为预先设定的阈值以下的情况下,设定成暖待机模式的任一集群控制部25的状态被切换成热待机模式。
此外,主集群控制部25为了防止存在两个以上的主集群控制部25的状态,而使三个以上的集群控制部25进行工作,从这些工作的集群控制部25中根据少数服从多数进行选择。然后,工作的剩余的集群控制部25设定成热待机模式。
节点控制部26是具有响应来自主集群控制部25的请求,执行在本节点内完成的各种控制处理的功能的程序。节点控制部26也可以称为节点控制软件或节点控制程序。实际上,主集群控制部25以负荷不会集中于自身的方式,对于在各存储节点3内完成的处理,向各存储节点3的节点控制部26请求该执行。而且,节点控制部26被发来该请求时,根据该请求,执行对本节点的数据平面24的控制处理。
这样本信息处理系统1中,从主集群控制部25经由该存储节点3的节点控制部26发送对各存储节点3内的前端部20和存储控制部21的指令或请求。但是,以下,为了理解的容易化,对各存储节点3内的前端部20和存储控制部21的来自主集群控制部25的指令或请求,作为从主集群控制部25直接发送至该前端部20和存储控制部21的指令或请求进行说明。
图4表示本实施方式的信息处理系统1中的存储区域的对应关系。如该图4所示,本实施方式中,利用容量控制部22,各存储节点3内的存储装置12分别提供的物理性的存储区域分别分割成规定定大小的存储区域(以下将其称为物理块)PC进行管理。
另外,容量控制部22将不同的存储节点3内的存储装置12分别提供的多个物理块PC和与该物理块PC相同大小的逻辑存储区域(以下将其称为逻辑块)LC对应,并将该逻辑块LC经由外部卷ExtVOL和与逻辑块LC相同大小的池卷PLVOL对应。
另外,容量控制部22将这样逻辑块LC相对应的池卷PLVOL汇总多个来生成池PL,并将生成的池PL分配给配置于本节点的主动存储控制部21所属于的存储控制部对28(图3)。这样,容量控制部22向各存储控制部对28分别分配作为专用存储区域的池PL。
另外,在这些池PL上,根据经由管理节点4的来自系统管理者的指示,生成一个或多个虚拟的作为逻辑卷的内部卷IVOL。这些内部卷IVOL在构成该池PL相对应的存储控制部对28的两个存储控制部21中的配置有主动存储控制部21的存储节点3内进行定义。
另外,各内部卷IVOL分别经由在分别构成对应的存储控制部对28(经由池PL与该内部卷IVOL相对应的存储控制部对28)的主动存储控制部21中定义的虚拟的端口(以下,将其称为虚拟端口)VPT、和在构成该存储控制部对28的被动存储控制部21中定义的虚拟端口VPT,与在配置有这些主动存储控制部21和被动存储控制部21的各存储节点3内分别定义的虚拟的逻辑卷即全局池卷GVOL一对一地相对应。
而且,集群7内的各全局池卷GVOL全部汇总并作为跨集群7内的所有的存储节点3的一个池(以下,将其称为全局池)GPL进行管理。
另外,各全局池卷GVOL与在构成经由内部卷IVOL分别与该全局池卷GVOL相对应的存储控制部对28的主动存储控制部21和配置有被动存储控制部21的各存储节点3内分别定义的虚拟的逻辑卷即主机卷HVOL一对N地相对应。该主机卷HVOL是作为用于读写数据的存储区域向计算节点提供的卷。
另外,各主机卷HVOL经由在该主机卷HVOL分别与经由全局池卷GVOL相对应的内部卷IVOL对应的配置有存储控制部对28的主动存储控制部21的存储节点3内定义的目标TG,一对一与该存储节点3的物理端口PPT相对应。
此外,全局池卷GVOL通过响应经由管理节点4的来自系统管理者的生成指示,在集群7内赋予固有的标识编号而生成。此时,与该全局池卷GVOL一起,一对一与该全局池卷GVOL相对应的内部卷IVOL与指定的存储控制部对28相对应地生成。
另外,全局池卷GVOL在系统管理者经由管理节点4在存储节点3内生成目标TG时,向该目标TG登记该全局池卷GVOL,由此关联于与该目标TG相对应的主机卷HVOL。
另外,全局池卷GVOL的存在意图在于,在集群7内不重复与主机卷HVOL相对应的内部卷IVOL的标识编号。实际上,在本实施方式的情况下,与各存储控制部对28分别相对应的内部卷IVOL的IVOL编号在存储节点3内固有,但不是在集群7内固有。因此,本实施方式中,通过在内部卷IVOL和主机卷HVOL之间设置在集群7内保持固有的GVOL编号的全局池卷GVOL,能够惟一地确定主机卷HVOL和内部卷IVOL之间的对应关系。
另一方面,在计算节点2一侧,构成集群7的多个存储节点3被看作一个存储装置,将主机卷HVOL识别为该存储装置向本节点提供的存储区域。
但是,可被各计算节点2识别的主机卷HVOL仅为经由管理节点4,由系统管理者设定于该计算节点2的主机卷HVOL。因此,计算节点2仅将由管理节点4设定的主机卷HVOL识别为由该存储装置提供的存储区域。
另外,各计算节点2管理从本节点的物理端口(未图示)到在集群7内的任一存储节点3内定义的目标TG的路径。而且,主机计算机2在向期望的主机卷HVOL读/写数据的情况下,将指定读/写目的地的主机卷HVOL、该主机卷HVOL内的读/写目的地的存储区域作为对象的数据的数据长度的I/O请求向本节点识别的目标TG进行发送。
此时,各存储节点3中,前端部20(图3)使用关于图6后述的前端表卷表31、以及关于图7后述的映射表32、以及关于图10后述的全局池卷表35来管理主机卷HVOL、全局池卷GVOL以及内部卷IVOL之间的对应关系,存储控制部21使用未图示的管理表来管理从内部卷IVOL到逻辑块LC的对应关系,容量控制部22(图3)使用未图示的管理表来管理逻辑块LC以及物理块PC之间的对应关系。
而且,前端部20在接收到来自计算节点2的I/O请求的情况下,参照该映射表32和全局池卷表35,确定配置有依次经由全局池卷GVOL以及内部卷IVOL与该I/O请求中指定的主机卷HVOL相对应的主动存储控制部21的存储节点3。
而且,前端部20在确定的存储节点3为本节点的情况下,将该I/O请求所包含的读/写目的地的主机卷HVOL的卷编号更新为经由全局池卷GVOL与该主机卷HVOL相对应的内部卷IVOL的卷编号,然后将该I/O请求向本节点内的该主动存储控制部21传送。
另外,前端部20在确定的存储节点3为其它存储节点3的情况下,在判断为该存储节点3中该I/O请求为应在其它的存储节点3执行的请求的情况下,将该I/O请求经由后端网络6向确定的存储节点3传送。因此,传送来了该I/O请求的存储节点3的前端部20将该I/O请求所包含的读/写目的地的主机卷HVOL的卷编号更新为经由全局池卷GVOL与该主机卷HVOL相对应的内部卷IVOL的卷编号,然后将该I/O请求向本节点内的对应的主动存储控制部21传送。
而且,收到了该I/O请求的主动存储控制部21使用上述未图示的管理表,确定依次经由池PL以及外部卷ExtVOL与该I/O请求中指定的内部卷IVOL以及该内部卷IVOL内的存储区域相对应的逻辑块LC以及该逻辑块LC内的存储区域。
因此,该存储节点3中,在该I/O请求为写请求的情况下,利用后端部23向与该逻辑块LC相对应的所有的物理块PC对应的存储区域分别写数据。另外,在该I/O请求为读请求的情况下,利用后端部23从与该逻辑块LC相对应的物理块PC中的一个物理块PC读数据,其向该读请求的发送源的计算节点2传送。
此外,在本实施方式的情况下,如上述,来自计算节点2的数据在依次经由全局池卷GVOL以及内部卷IVOL等与I/O请求中指定的主机卷HVOL对应的逻辑块LC所对应的多个物理块PC中冗余化而存储。因此,利用容量控制部22与各逻辑块LC分别相对应的物理块PC的数量根据该信息处理系统1中的冗余化方式的设定内容而决定。
例如,在进行将数据进行二重化存储的设定的情况下,两个物理块PC与一个逻辑块LC相对应,在进行将数据多重化成三重化以上而存储的设定的情况下等,三个以上的必要的数量的物理块PC与一个逻辑块LC相对应。
在该情况下,在从与配置有主动存储控制部21的存储节点3不同的存储节点3内的物理块PC,选择与逻辑块LC相对应的物理块PC的情况下,收到了来自该主动存储控制部21的I/O指令的容量控制部22在向该物理块PC读/写数据时,与提供该物理块PC的存储节点3之间的通信成为必要,相应地,作为系统整体的响应性能变差。因此,在将多个物理块PC与逻辑块LC相对应时,从系统整体的响应性能的观点来看,优选从配置有主动存储控制部21的存储节点3内的存储装置12提供的物理块PC中选择该物理块PC中的一个。
另外,在配置有存储控制部对28的主动存储控制部21的存储节点3中产生故障的情况下,当考虑到被动存储控制部21切换成主动模式时,由于与上述相同的理由,从系统整体的响应性能的观点来看,优选与逻辑块LC相对应的物理块PC中的一个从配置有被动存储控制部21的存储节点3内的存储装置12所提供的物理块PC中选择。
因此,本信息处理系统1中,各存储节点3的容量控制部22在向存储控制部对28分配逻辑块LC,且使多个物理块PC与该逻辑块LC相对应时,使配置有该存储控制部对28的主动存储控制部21的存储节点3内的存储装置12所提供的物理块PC,和配置有该存储控制部对28的被动存储控制部21的存储节点3内的存储装置12所提供的物理块PC优先性地与该逻辑块LC相对应。
(2)各种表的结构
图5~图10表示为了管理各存储控制部对28的结构,以及上述那样的主机卷HVOL、全局池卷GVOL以及内部卷IVOL之间的对应关系等,而保持于各存储节点2的存储器11的数据库(未图示)所包含的各种表的结构例。
这些表中,图5所示的存储控制部对表30、图6所示的前端表卷表31、图7所示的映射表32、图8所示的前端目标表33、及图10所示的全局池卷35由前端部20管理。另外,图9所示的存储控制部构成信息表34由存储控制部21管理。
另外,存储控制部对表30、前端表卷表31、映射表32、前端目标表33及全局池卷表35在集群7内的任一存储节点3进行了更新的情况下,与其同步,在其它的所有的存储节点3同样地更新,由此,在各存储节点3间总是保持相同的内容。
存储控制部对表30是用于主集群控制部25(图4)管理设定于集群7内的存储控制部对28(图3)的表,如图5所示,具备配对编号栏30A、主动栏30B以及被动栏30C而构成。该存储控制部对表30中,一行与一个存储控制部对28对应,集群7内的所有的存储控制部对28注册于该存储控制部对表30。
而且,在配对编号栏30A中存储有向对应的存储控制部对28赋予的、该存储控制部对28中固有的标识编号(配对编号)。
另外,主动栏30B分为节点编号栏30BA以及存储控制部栏30BB。而且,在节点编号栏30BA中存储配置有构成对应的存储控制部对28的两个存储控制部21中的主动存储控制部21的存储节点3的标识编号(节点编号),在存储控制部编号栏30BB中存储该主动存储控制部21的标识编号(存储控制部编号)。
同样,被动栏30C分为节点编号栏30CA以及存储控制部编号栏30CB。而且,在节点编号栏30CA中存储配置有构成对应的存储控制部对28的两个存储控制部21中的被动存储控制部21的存储节点3的节点编号,在存储控制部编号栏30CB中存储该被动存储控制部21的存储控制部编号。
因此,在图5的例子的情况下,表示赋予了“1”的配对编号的存储控制部对28,由配置于“0”的节点编号的存储节点3的“0”的存储控制部编号的主动存储控制部21和配置于“1”的节点编号的存储节点3的“1”的存储控制部编号的被动存储控制部21构成。
另一方面,前端表卷表31是用于管理主机卷HVOL以及内部卷IVOL之间的对应关系的表。如图6所示,前端表卷表31具备主机卷ID栏31A、UUID栏31B、第一节点确定信息栏31C、第二节点确定信息栏31D、主动侧节点确定信息栏31E、存储控制部编号栏31F、虚拟端口编号栏31G以及内部卷编号栏31H而构成。该前端表卷表31中,一行与一个主机卷HVOL对应,且注册集群7内的所有的主机卷HVOL。
而且,在卷编号栏31A中分别存储对对应的主机卷HVOL赋予的该主机卷HVOL中固有的卷编号。该卷编号是计算节点2识别的该主机卷HVOL的标识编号(卷编号)。
另外,在UUID栏31B中存储对对应的主机卷HVOL在集群7内赋予的、该主机卷HVOL中固有的UUID(Universally Unique Identifier),在内部卷编号栏31H中存储与对应的主机卷HVOL相对应的内部卷IVOL的卷编号。
另外,在第一节点确定信息栏31C中存储用于确定与对应的内部卷IVOL相对应的配置有存储控制部对28的主动存储控制部21的存储节点3的信息(以下,将其称为存储节点确定信息),在第二节点确定信息栏31D中存储配置有该存储控制部对28的被动存储控制部21的存储节点3的存储节点确定信息。本实施方式中,作为这些存储节点确定信息,应用对应的存储节点3的存储服务网络5上的IP(Internet Protocol)地址。
另外,在主动侧节点确定信息栏31E中存储这两个存储节点3中的、配置有主动存储控制部21的存储节点3的存储节点确定信息。另外,在存储控制部编号栏31F中存储该主动存储控制部21的存储控制部编号,在虚拟端口编号栏31G中存储该主动存储控制部21中定义的虚拟端口VPT中的、连接对应的主机卷HVOL以及对应的内部卷IVOL的虚拟端口VPT的标识编号(端口编号)。
因此,图6的例子的情况表示,在向由配置于“sn1”的节点确定信息的存储节点3的存储控制部编号为“1”的主动存储控制部21,和配置于“sn2”的节点确定信息的存储节点3的被动存储控制部21构成的存储控制部对28分配的池PL上定义“1”的卷编号的内部卷IVOL,且该内部卷IVOL经由定义于该主动存储控制部21的“Cl1-a”的端口编号的虚拟端口VPT与“1”的卷编号的主机卷HVOL相对应。另外,图6中还表示,该主机卷HVOL在集群7内的UUID为“Xxxxxxxxxxx”。
另一方面,映射表32是用于管理全局池卷GVOL和内部卷IVOL间的对应关系的表。如图7所示,映射表32具备全局池卷编号栏32A、UUID栏32B、内部卷编号栏32C、节点编号栏32D以及存储控制部编号栏32E而构成。映射表32中,一行与一个全局池卷GVOL对应,并注册集群7内的所有的全局池卷GVOL。
而且,在全局池卷编号栏32A中存储对应的全局池卷GVOL的卷编号,在UUID栏32B中存储该全局池卷GVOL的集群7内的UUID。
另外,在内部卷编号栏32C中存储向与该全局池卷GVOL相对应的内部卷IVOL赋予的该内部卷IVOL的卷编号。另外,在节点编号栏32D中存存储在该内部卷IVOL的存储节点3(通常,配置有对应的主动存储控制部21的存储节点3)的节点编号。
另外,在存储控制部编号栏32E中存储构成与该内部卷IVOL相对应的存储控制部对28(在分配的池PL上定义该内部卷IVOL的存储控制部对28)的两个存储控制部21中的主动存储控制部21的存储控制部编号。
因此,图7的例子的情况表示,“1”的卷编号的全局池卷GVOL在集群7内赋予“Xxxxxxxxxxxx”的UUID,且与在配置有“1”的存储控制部编号的主动存储控制部21的“2”的节点编号的存储节点3内定义的“1”的卷编号的内部卷IVOL相对应。
前端目标表33是用于管理对存储节点3的各物理端口PPT(图4)分别一对一设定的目标TG(图4)与主机卷HVOL的对应关系的表。如图8所示,前端目标表33具备目标编号栏33A、目标名称栏33B、UUID栏33C、目标IP栏33D、主机卷编号列表栏33E以及引发器(initiator)名称栏33F而构成。该前端目标表33中,一行与一个目标TG对应,且注册定义于集群7内的所有的目标TG。
而且,在目标编号栏33A中存储赋予给对应的目标TG的、该目标TG中固有的标识编号(目标编号),在目标名称栏33B中存储赋予给对应的目标TG的名称(目标名)。该目标名是由用户或管理节点4赋予的名称。
另外,在UUID栏33C中存储赋予给对应的目标TG的集群7内的该目标TG的UUID。另外,在目标IP栏33D中存储设定有该目标TG的物理端口PPT的存储服务网络5上的IP地址。
另外,在主机卷编号列表栏33E中存储与对应的目标TG相对应的所有的主机卷HVOL的卷编号,在引发器名称栏33F中存储可登录于对应的目标TG的计算节点2的名称(引发器名)。
因此,图8的例子的情况表示,在赋予了“1”的目标编号的“AAAA”的目标名的目标TG中,在集群7内赋予“Xxxxxxxxxxxx”的UUID,设定有该目标TG的物理端口PPT的存储服务网络5上的IP地址为“xx.xx.xx.xx”,对该目标TG分别赋予了“1”、“2”、……“N”的卷编号的多个主机卷HVOL相对应,在该目标TG可登录地设定有“lqn.xxxx.xxx”的引发器名的计算节点2。
存储控制部构成信息表34是用于管理虚拟端口VPT以及内部卷IVOL的对应关系的表,如图9所示,具备虚拟端口编号栏34A及内部卷编号栏34B而构成。该存储控制部构成信息表34对每个存储控制部21生成,且由对应的存储控制部21进行管理。
而且,在虚拟端口编号栏34A中存储对应的存储控制部21中定义的虚拟端口VPT的端口编号,在内部卷编号栏34B中存储与该虚拟端口VPT连接的内部卷IVOL的卷编号。
因此,图9的例子的情况表示,在对应的存储控制部21的“Cl1-a”的虚拟端口VPT连接“1”的卷编号的内部卷IVOL。
全局池卷表35是用于管理定义于集群7内的全局池卷GVOL的表,如图10所示,具备全局池卷编号栏35A、目标编号栏35B和主机卷编号栏35C而构成。该全局池卷表35中,一行与一个全局池卷GVOL对应,且注册定义于集群7内的所有的全局池卷GVOL。
而且,在全局池卷编号栏35A中存储赋予给对应的全局池卷GVOL的、该全局池卷GVOL中固有的标识编号(卷编号),在主机卷编号栏35C中存储与对应的全局池卷GVOL相对应的所有的主机卷HVOL的卷编号。另外,在目标编号栏35B中存储与对应的主机卷HVOL相对应的目标TG的目标编号。
因此,图10的情况表示,至少分别赋予了“1”的卷编号的主机卷HVOL与赋予了“1”的卷编号的全局目标卷GVOL相对应,该主机卷HVOL与赋予了“1”的目标编号的目标TG和赋予了“2”的目标编号的目标TG相对应(参照图4)。
此外,将前端表卷表31、映射表32、前端目标表33、存储控制部构成信息表34及全局池卷35间的信息的对应关系在图11中表示。
如该图11所示,前端表卷表31的虚拟端口编号栏31G(图6)和内部卷编号栏31H(图6)中分别存储的虚拟端口编号和卷编号,与具备分别赋予了该虚拟端口编号的虚拟端口VPT(图4)的存储控制部21管理的存储控制部构成信息管理表34的虚拟端口编号栏34A(图9)和内部卷编号栏34B(图9)中分别存储的虚拟端口编号和卷编号对应。
因此,在前端表卷表31及存储控制部构成信息管理表34之间,能够以虚拟端口VPT的端口编号和与该虚拟端口VPT相对应的内部卷IVOL的卷编号的组合为钥匙来识别行彼此的对应关系。
另外,映射表32的全局池卷编号栏32A(图7)中存储的卷编号与全局池卷表35的全局池卷编号栏35A中存储的卷编号对应。因此,在映射表32及全局池卷表35之间,能够以全局池卷GVOL的卷编号为钥匙来识别行彼此的对应关系。
另外,映射表32的内部卷编号栏32C(图7)中存储的卷编号与提供该内部卷编号的内部卷IVOL(图4)的主动存储控制部21管理的存储控制部构成信息管理表34的内部卷编号栏34B(图9)中存储的卷编号对应。因此,在映射表33以及存储控制部构成信息管理表34之间,能够以内部卷IVOL的卷编号为钥匙来识别行彼此的对应关系。
另外,全局池卷表35的目标编号栏35B(图10)中存储的目标编号与前端目标表33(图8)的目标编号栏33A中存储的目标编号对应。因此,在全局池卷表35及前端目标表33之间,能够以目标编号为钥匙来识别行彼此的对应关系。
(3)内部卷生成的流程
接着,参照图12说明在集群7内生成关于图4上述的内部卷IVOL,并与主机卷HVOL相对应进行与该内部卷IVOL相关的各种设定的一连串的处理的流程。
本信息处理系统1中,系统管理者在生成向计算节点2提供的新的主机卷HVOL的情况下,操作管理节点4,由此,将与此时要生成的主机卷HVOL相对应的全局池卷GVOL的生成请求(以下,将其称为全局池卷生成请求)向配置有主集群控制部25的存储节点3发送(S1)。
接收到该全局池卷生成请求的主集群控制部25首先解析接收到的指令(全局池卷生成请求)(S2),当识别到该指令为全局池卷生成请求时,选择为了与此时应生成的全局池卷GVOL对应最佳的存储控制部对28(图3)(S3)。例如,主集群控制部25在该步骤S3中选择在负荷最低的存储节点3配置有主动存储控制部21的存储控制部对28。
另外,主集群控制部25对于配置有构成步骤S3中选择的存储控制部对28的存储控制部21中的主动存储控制部21的存储节点3,经由后端网络6发送应生成全局池卷GVOL的内容的指示(以下,将其称为全局池卷生成指示)和应生成内部卷IVOL的内容的指示(以下,将其称为内部卷生成指示)(S4A,S4B)。
因此,接收了该全局池卷生成指示的存储节点3的前端部20在本节点内生成全局池卷GVOL(S5A)。另外,上述存储节点3的上述主动存储控制部21根据该内部卷生成指示,在本节点内与向本存储控制部21所构成的存储控制部对28分配的池PL(图4)和步骤S5A中生成的全局池卷GVOL相对应地生成内部卷IVOL(S5B)。
此外,全局池卷GVOL和内部卷IVOL是不具有实体的虚拟的逻辑卷,因此,这些全局池卷GVOL和内部卷IVOL的生成通过将该信息注册于全局池卷表35(图10)和对应的存储控制部构成信息表34(图9)而进行。
实际上,该前端部20对自身管理的全局池卷表35(图10)追加新的行,在该行的全局池卷编号栏35A(图10)中存储赋予于该全局池卷GVOL的卷编号。
而且,该前端部20之后将这样生成的全局池卷GVOL的卷编号和与该全局池卷GVOL相对应的内部卷IVOL的卷编号经由后端网络6通知给主集群控制部25(S6A)。
另外,上述的主动存储控制部21对自身管理的存储控制部构成信息表34(图9)追加新的行,在该行的内部卷编号栏34B(图9)中存储此时应生成的内部卷IVOL的卷编号,并且在该行的虚拟端口编号栏34A(图9)中存储与该内部卷IVOL相对应的本存储控制部21的虚拟端口VPT(图4)的端口编号。
而且,该主动存储控制部21之后将包含这样生成的内部卷IVOL的卷编号和与该内部卷IVOL相对应的虚拟端口VPT的端口编号的完成通知经由后端网络6向主集群控制部25通知(S6B)。
另一方面,接收到这些完成通知的主集群控制部25以将该全局池卷GVOL和该内部卷IVOL注册于本节点内的前端表卷表31(图6)、映射表32(图7)和全局池卷表35(图10)的方式,向本节点内的前端部20给予指示。因此,接收到该指示的前端部20向存储于本节点的存储器11(图2)的前端表卷表31、映射表32和全局池卷表35(图10)中注册这些全局池卷GVOL和该内部卷IVOL(S7)。
具体而言,上述前端部20对存储于本节点的存储器11(图2)的前端表卷表31追加新的行,在该行的第一节点确定信息栏31C(图6)中存储配置有构成步骤S3中选择的存储控制部对28的一个存储控制部21的存储节点3的存储节点确定信息。另外,该前端部20在该行的第二节点确定信息栏31D(图6)中存储配置有构成步骤S3中选择的存储控制部对28的另一个存储控制部21的存储节点3的存储节点确定信息。
另外,前端部20在该行的主动侧节点确定信息栏31E(图6)中存储配置有构成上述存储控制部对28的两个存储控制部21中的主动存储控制部21的存储节点3的存储节点确定信息,并且在该行的存储控制部编号栏31F(图6)中存储该主动存储控制部21的存储控制部编号。
另外,前端部20在该行的虚拟端口编号栏31G(图6)中存储步骤S7中接收到的从对应的存储控制部21发送的完成通知所包含的虚拟端口VPT的端口编号,并且在该行的内部卷编号栏31H(图6)中存储该完成通知所包含的内部卷的卷编号。
同样,前端部20对映射表32(图7)追加新的行,在该行的全局池卷编号栏32A(图7)和UUID栏32B(图7)中分别存储此时生成的全局池卷GVOL的卷编号和UUID,并且在该行的内部卷编号栏32C(图7)中存储与该全局池卷GVOL相对应的内部卷IVOL的卷编号。
另外,前端部20在该行的节点编号栏32D(图7)中存储步骤S3中选择的配置有存储控制部对28的主动存储控制部21的存储节点3的节点编号,并且在该行的存储控制部编号栏32E(图7)中存储该主动存储控制部21的存储控制部编号。
另外,前端部20对全局池卷表35(图10)追加新的行,并在该行的全局池卷编号栏35A(图10)中存储此时生成的全局池卷GVOL的卷编号。
而且,主集群控制部25如上所述,当本节点内的前端部20将该全局池卷GVOL和内部卷IVOL向本节点内的前端表卷表31、映射表32和全局池卷表35注册且结束时,将这些前端表卷表31、映射表32和全局池卷表35的更新前后的差分别设为差数据,经由后端网络6分别发送至集群7内的本节点以外的各存储节点3(S8)。
因此,接收到该差数据的各存储节点3的前端部20基于该差数据,与配置有主集群控制部25的存储节点3内的前端表卷表31、映射表32和全局池卷表35同样地分别更新本节点内的前端表卷表31、映射表32和全局池卷表35(S9)。这样同步地更新各存储节点3内的前端表卷表31、映射表32和全局池卷表35,这些前端表卷表31、映射表32和全局池卷表35的内容在集群7内的各存储节点3间总是保持成相同的状态。
另外,这些前端部20这样更新本节点内的前端表卷表31、映射表32和全局池卷表35且结束时,将该内容的完成通知经由后端网络6向主集群控制部25发送(S10)。
而且,主集群控制部25从集群7内的本节点以外的所有的存储节点3的前端部20给予上述步骤S10的完成通知时,将请求的全局池卷GVOL生成结束的内容的完成通知向管理节点4发送(S11)。
另一方面,管理节点4从主集群控制部25给予上述步骤S11的完成通知时,将应生成与此时要生成的主机卷HVOL相对应的目标TG(图4)的内容的请求(以下,将其称为目标生成请求)经由存储服务网络5向主集群控制部25发送(S12)。此外,该目标生成请求中包含此时应生成的目标TG的目标名、与该目标TG相对应的主机卷HVOL的卷编号、该目标TG的IP地址。
而且,主集群控制部25接收该目标生成请求时,以在分别配置有构成步骤S3中选择的存储控制部对28的各存储控制部21的两个存储节点3内分别生成请求的目标TG的方式,对本节点内的前端部20发送指示(S13)。但是,这些目标TG是不具有实体的、虚拟的目标,因此,这些目标TG的生成通过向前端目标表33(图8)重新注册这些目标TG的信息而进行。
实际上,接收到来自主集群控制部28的上述指示的前端部20对存储于本节点的存储器11的前端目标表33(图8)追加新的两个行,在这些行的目标名称栏33B(图8)、目标IP栏33D(图8)和主机卷编号栏33E(图8)中分别存储步骤S12中从管理节点4发来的目标生成请求中指定的新的目标TG的目标名和网络IP以及主机卷HVOL的卷编号中的对应的信息。另外,前端部20在这些行的UUID栏33C(图8)中分别存储对对应的目标TG赋予的集群7内固有的UUID。
另外,主集群控制部28之后对本节点内的前端部20给予指示,以映射步骤S5A中生成的全局池卷GVOL、步骤S5B中生成的内部卷IVOL、此时要生成的主机卷HVOL(S14)。
因此,接收到该指示的前端部20在步骤S7中对本节点内的前端表卷表31(图6)重新追加的行的卷编号栏31A(图6)中存储目标生成请求中指定的此时要生成的主机卷HVOL的卷编号。另外,上述前端部20对该主机卷HVOL赋予在集群7内固有的UUID,并将赋予的UUID存储于该行的UUID栏31B(图6)。
另外,与上述一样,上述前端部20在步骤S7中在本节点内的全局池卷表35(图10)重新追加的行的目标编号栏35B中存储目标生成请求中指定的此时生成的各目标TG的目标编号,并且在该行的各主机卷编号栏35C中存储此时要生成的主机卷HVOL的卷编号。
而且,主集群控制部25如上述那样完成请求的目标TG的生成、步骤S5A中生成的全局池卷GVOL、步骤S5B中生成的内部卷IVOL、此时要生成的主机卷HVOL的映射时,将步骤S13中更新的前端目标表33的更新前后的差、步骤S14中更新的前端表卷表31和全局池卷表35的更新前后的差分别设为差数据,并经由后端网络6分别发送至集群7内的本节点以外的各存储节点3(S15)。
因此,接收到该差数据的各存储节点3的前端部20基于该差数据,分别与配置有主集群控制部25的存储节点3内的前端目标表33和前端表卷表31以及全局池卷表35同样地更新本节点内的前端目标表33和前端表卷表31和全局池卷表35(S16)。
另外,这些前端部20这样更新本节点内的前端目标表33和前端表卷表31以及全局池卷表35且结束时,将该内容的完成通知经由后端网络6向主集群控制部25发送(S17)。
而且,主集群控制部25从集群7内的本节点以外的所有存储节点3的前端部20给予上述的步骤S17的完成通知时,将请求的目标TG生成结束的内容的完成通知向管理节点4发送(S18)。
另一方面,管理节点4从主集群控制部25给予上述步骤S18的完成通知时,将应使通过步骤S12~步骤S18的处理所生成的目标TG与允许向与该目标TG对应的主机卷HVOL的访问的计算节点2(引发器)相对应的内容的引发器注册请求向主集群控制部25发送(S19)。此外,该引发器注册请求中包含上述计算节点19的节点名和上述目标TG的目标名。
而且,主集群控制部25接收该引发器注册请求时,作为可访问步骤S13中生成的目标TG的引发器,以注册引发器注册请求中指定的计算节点2的方式,对本节点内的前端部20发送指示。因此,接收到该指示的前端部20作为可访问上述的目标TG的引发器,注册上述计算节点2(S20)。具体而言,上述前端部20在存储于本节点的存储器11(图2)的前端目标表33的引发器栏33F(图8)中存储引发器注册请求中指定的计算节点2的节点名。
而且,主集群部25如以上那样作为可访问上述目标TG的引发器注册上述的计算节点2结束时,将该前端目标表33的更新前后的差设为差数据,并经由后端网络6分别发送至集群7内的本节点以外的各存储节点3(S21)。
因此,接收到该差数据的各存储节点3的前端部20基于该差数据,与配置有主集群控制部25的存储节点3内的前端目标表33同样地更新本节点内的前端目标表33(S22)。
另外,这些前端部20这样更新本节点内的前端目标表33且结束时,将该内容的完成通知经由后端网络6向主集群控制部25发送(S23)。
而且,主集群控制部25从集群7内的本节点以外的所有存储节点3的前端部20给予上述步骤S23的完成通知时,将请求的引发器的注册完成的内容的完成通知发送至管理节点4(S24)。由此该一连串的处理完成。
(4)存储节点的故障产生时和增设时的处理的流程
接着,对本信息处理系统1中,在构成集群7的任一存储节点3发生了故障的情况和在集群7增设存储节点3的情况下的处理的流程进行说明。
(4-1)存储节点故障产生时的处理的流程
图13表示在构成集群7的任一存储节点3发生了故障的情况下,在集群7内执行的一连串的处理的流程。
在本实施方式的情况下,主集群控制部25执行对各存储节点3的定期的健康检查。而且,主集群控制部25在上述健康检查时,若检测到在任一存储节点3产生了故障,则与配置于发生故障的存储节点(以下,将其称为故障存储节点)3的主动存储控制部21一样,确定构成存储控制部对28的另一存储控制部(被动存储控制部)21(S30)。
具体而言,主集群控制部25参照存储控制部对表30(图5),确定该存储控制部对表30的各行中的、在主动栏30B(图5)的节点编号栏30BA(图5)存储有故障存储节点3的节点编号的行,并取得该行中的被动栏30C(图5)的存储于存储控制部编号栏30CB(图5)的存储控制部编号和该被动栏30C的存储于节点编号栏30CA(图5)的节点编号。
接着,主集群控制部25将步骤S30中确定的存储控制部21的状态切换成主动模式(S31)。具体而言,主集群控制部25在存储控制部对表30的各行中、步骤S30中确定的行的主动栏30B(图5)的节点编号栏30BA(图5)和存储控制部编号栏30BB(图5)中分别存储步骤S30中取得的节点编号和存储控制部编号中的对应的编号。另外,主集群控制部25将这样更新的存储控制部对表30的更新前后的差的差数据分别发送至集群7内的本节点以外的各存储节点3,由此,同样地更新这些各存储节点3内的存储控制部对表30。
另外,主集群控制部25启动赋予了步骤S30中取得的节点编号的存储节点3内的赋予了上述那样取得的存储控制部编号的存储控制部21(S32),并使该存储控制部21执行必要的故障时处理(S33)。
另一方面,主集群控制部25对安装于步骤S30中确定的节点编号的存储节点3的前端部20,也经由后端网络6发送与步骤S31的故障时处理执行指示同样的故障时处理执行指示(S34)。
而且,接收到该故障时处理执行指示的前端部20执行用于将与步骤S32中切换成主动模式的存储控制部21相对应的内部卷IVOL的对应目的地,切换成步骤S32中切换成主动模式的存储控制部21的故障时处理(S35)。
具体而言,上述前端部20对于本节点内的前端表卷表31,首先确定至此为止本存储控制部21和构成存储控制部对28的主动存储控制部21的存储控制部编号存储于存储控制部编号栏31F(图6)中的行。
而且,前端部20将存储于该行的主动侧节点确定信息栏31E(图6)的节点确定信息更新为本节点的节点确定信息,并且将存储于该行的存储控制部编号栏31F的存储控制部编号变更为步骤S31中切换成主动模式的存储控制部21的存储控制部编号。另外,上述前端部20将存储于该行的虚拟端口编号栏31G(图6)的端口编号更新为步骤S31中切换成主动模式的存储控制部21的虚拟端口VPT(图4)、即与对应的主机卷HVOL相对应的虚拟端口VPT的端口编号。
另外,上述前端部20对于本节点内的映射表32(图7),首先确定至此为止本存储控制部21和构成存储控制部对28的主动存储控制部21的存储控制部编号存储于存储控制部编号栏32E(图6)的行。然后,前端部20将存储于该行的节点编号栏32D(图6)的节点编号更新为本节点的节点编号。另外,上述前端部20将存储于该行的存储控制部编号栏32E的存储控制部编号更新为步骤S31中切换成主动模式的存储控制部21的存储控制部编号。
另外,上述前端部20对于前端目标表33(图8),确定与在故障存储节点3内定义的对应的内部卷IVOL相对应的主机卷HVOL的卷编号存储于主机卷编号列表栏33E的行。然后,前端部20将存储于该行的目标ID栏33D的IP地址更新为本节点内的物理端口PPT(图4)、即与上述主机卷HVOL相对应的物理端口PPT的IP地址。
而且,主集群控制部25将这样更新的前端表卷表31、映射表32和前端目标表33的更新前后的差的差数据分别发送至集群7内的本节点以外的各存储节点3的前端部20,由此,同样地更新这些各存储节点3内的前端表卷表31、映射表32和前端目标表33。
此外,图13中未图示,但主集群控制部25与步骤S31和步骤S32的处理一起,代替配置于故障存储节点3的主动存储控制部21,而选择应与步骤S32中切换成主动模式的存储控制部21一起构成新的存储控制部对28的存储控制部21。
这种存储控制部21从配置于集群7内的故障存储节点3以外的任一存储节点3的此时未使用的存储控制部21(任意存储控制部21均未设定于存储控制部对28的存储控制部21)中的、在配置有步骤S32中切换成主动模式的存储控制部21的存储节点3以外的存储节点3配置的存储控制部21中进行选择。
而且,主集群控制部25更新应将这样选择的存储控制部21和步骤S32中切换成主动模式的存储控制部21设定于新的存储控制部对28的存储控制部对表30(图5)和前端表卷表31(图6)。
具体而言,主集群控制部25对于存储控制部对表30,确定在主动栏30B(图5)的节点编号栏30BA(图5)和存储控制部编号栏30BB(图5)中分别存储步骤S30中取得的节点编号和存储控制部编号的行,将该行的被动栏30C(图5)的存储于存储控制部编号栏30CB(图5)的存储控制部编号更新为上述那样选择的存储控制部21的存储控制部编号,并且将存储于该被动栏30C的节点编号栏30CA(图5)的节点编号改写为配置有该存储控制部21的存储节点3的节点编号。
另外,主集群控制部25对于前端表卷表31,将经由本节点内的前端部20而存储于对应的行的第一和第二节点确定信息栏31C、31D的任一项的故障存储节点3的节点编号,更新为配置有上述那样选择的存储控制部21的存储节点3的节点编号。
而且,主集群控制部25将这样更新的存储控制部对表30和前端表卷表31的更新前后的差的差数据分别发送至集群7内的本节点以外的存储节点3,由此,同样地更新这些存储节点3内的存储控制部对表30和前端表卷表31。
(4-2)存储节点增设时的处理的流程
另一方面,图14表示在对集群7内增设存储节点3的情况下,在该集群7内执行的一连串的处理的流程。
在对集群7增设了存储节点3的情况下,系统管理者将该情况经由管理节点4通知给主集群控制部25。而且,接收到该通知的主集群控制部25使存储节点3间的负荷分散,因此,选择应向增设的存储节点(以下,将其称为增设存储节点)3移动的存储控制部(以下,将其称为移动对象存储控制部)21(S40)。
例如,主集群控制部24将集群7内的存储控制部21中的、配置于负荷最高的存储节点3的主动存储控制部21作为上述移动对象存储控制部21来选择。
而且,主集群控制部25之后执行用于替换配置于增设存储节点3的此时未使用的任一个存储控制部21和步骤S40中选择的移动对象存储控制部21的处理(S41~S45)。
具体而言,主集群控制部25首先启动增设存储节点3的步骤S40中选择的存储控制部(以下,将其称为选择存储控制部)21(S41),使该选择存储控制部21执行用于转移移动对象存储控制部21到此为止执行的处理的规定的增设时处理(S42)。
另外,主集群控制部25使移动对象存储控制部21执行用于将该移动对象存储控制部21到此为止执行的处理向选择存储控制部21转移的规定的增设时处理(S41,S42)。此外,该增设时处理中还包含将存储控制部对表30(图5)、前端表卷表31(图6)、映射表32(图7)、前端目标表33(图8)和全局池卷表35(图10)的各数据向增设存储节点3的前端部20传送的处理。
然后,主集群控制部25对本节点内的前端部20发送指示,以包含将与移动对象存储控制部21相对应的内部卷IVOL的对应目的地切换成选择存储控制部21,且将增设存储节点3的选择存储控制部21的环境设定成与配置有移动对象存储控制部21的存储节点3的该移动对象存储控制部21的环境相同(S43)。
因此,接收到该指示的前端部20根据需要这样更新存储于本节点的存储器11(图2)的存储控制部对表30(图5)、前端表卷表31(图6)、映射表32(图7)、前端目标表33(图8)和全局池卷表35(图10)(S44)。
具体而言,上述前端部20对于存储控制部对表30,首先确定移动对象存储控制部21的存储控制部编号存储于主动栏30B(图5)的存储控制部编号栏30BB(图5)的行。而且,上述前端部20将该行的主动栏30B的节点编号栏30BA(图5)中存储的节点编号更新为增设存储节点3的节点编号,并且将该主动栏30B的存储控制部编号栏30BB(图5)中存储的存储控制部编号更新为选择存储控制部21的存储控制部编号。
另外,前端部20对于前端表卷表31,首先确定移动对象存储控制部21的存储控制部编号存储于存储控制部编号栏31F(图6)的行。
而且,前端部20将存储于该行的第一和第二节点确定信息栏31C、31D(图6)的任一项的、配置有移动对象存储控制部21的存储节点3的节点确定信息和存储于主动侧节点确定信息栏31E(图6)的该存储节点3的节点确定信息分别更新为增设存储节点3的节点确定信息。
另外,前端部20将存储于该行的存储控制部编号栏31F的存储控制部编号更新为选择存储控制部21的存储控制部编号。另外,前端部20将存储于该行的虚拟端口编号栏31G(图6)的虚拟端口编号改写为,至此为止与移动对象存储控制部21对应的、与对应的主机卷HVOL对应而定义于选择存储控制部21的虚拟端口VPT(图4)的虚拟端口编号。
另外,上述前端部20对于映射表32,首先确定移动对象存储控制部21的存储控制部编号存储于存储控制部编号栏32E(图7)的行。然后,前端部20将存储于该行的该存储控制部编号栏32E的存储控制部编号更新为选择存储控制部编号。另外,前端部20将存储于该行的节点编号栏32D(图7)的节点编号更新为增设存储节点3的节点编号。
另外,上述前端部20对于前端目标表33,首先确定在主机卷编号列表栏33E(图8)中存储有对应的主机卷HVOL的卷编号的行。此外,上述卷编号能够作为例如上述那样映射表32中确定的行的主机卷编号栏32A存储的卷编号来取得。
而且,前端部20将存储于该行的目标IP栏的IP地址更新为增设存储节点3中的与上述对应的主机卷HVOL相对应的物理端口PPT(图4)的存储服务网络5(图1)上的IP地址。
而且,主集群控制部25在这样完成存储控制部对表30、前端表卷表31、映射表32和前端目标表33的更新时,将更新后的这些存储控制部对表30、前端表卷表31、映射表32和前端目标表33的更新前后的差的差数据分别发送至集群7内的本节点以外的存储节点3,由此,同样地更新这些存储控制部对表30、前端表卷表31、映射表32和前端目标表33。
另外,主集群控制部25访问选择存储控制部21,在该选择存储控制部21保持的存储控制部构成信息表34的虚拟端口编号栏34A(图9)和内部卷编号栏34B(图9)中存储与分别存储于本节点内的前端表卷表31的虚拟端口编号栏31G(图6)和内部卷编号栏31H(图6)的值相同的值。
通过以上的处理,增设存储节点3的选择存储控制部21的环境与配置有移动对象存储控制部21的存储节点3的该移动对象存储控制部21的环境相同地设定。
另一方面,计算节点2之后基于系统管理者的操作输入,根据从管理节点4发来的指示,执行设定从本节点到步骤S44的增设处理中定义于增设存储节点3内的对应的目标TG的通路的路径增设处理(S46)。另外,计算节点2经由这样设定的路径,对增设存储节点3的前端部20发送要登录于该目标TG的内容的登录请求(S47)。
而且,增设存储节点3的前端部20接收该登录请求时,执行与该登录请求相应的登录处理(S48),并将该处理结果发送至登录请求的发送源的计算节点2(S49)。
(5)本信息处理系统中的写处理和读处理的流程
(5-1)写处理的流程
接着,对本信息处理系统1中的写处理的流程进行说明。图15表示在对由计算节点2构成集群7的任一存储节点3发送了写请求的情况下,在该集群7内执行的写处理的流程。以下,将在集群7内接收到写请求的存储节点3适宜称为“写请求接收节点”。
此外,在写请求中,如上述指定写目的地的主机卷HVOL的卷编号、该主机卷HVOL的写目的地的存储区域的开头地址、写对象的数据(以下,将其称为写数据)的数据长度。
而且,“写请求接收节点”的第一通信装置13接收到上述写请求时(S50),将接收到的写请求向本节点内的前端部20传送(S51)。另外,前端部20基于传送来的写请求,在存储器11(图2)上确保必要的容量的缓冲区域(S52),然后,将结束确保缓冲区域的内容的完成通知经由第一通信装置13向写请求的发送源的计算节点2发送(S53,S54)。
另外,“写请求接收节点”的第一通信装置13之后从上述计算节点2传送写数据时(S55),将该写数据向本节点内的前端部20传送(S56)。
收到了该写数据的前端部20将收到的写数据存储于步骤S52中确保的缓冲区域中(S57),然后,判断根据该写请求的写处理是否为应在本节点执行的处理(S58)。
该判断参照映射表32(图7)的各行中的、写请求中作为写目的地而指定的主机卷HVOL所对应的行的节点编号栏32D(图7)来进行。具体而言,前端部20在存储于上述节点编号栏32D的节点编号为本节点的节点编号的情况下,判断为根据该写请求的写处理为应在本节点执行的处理。另外,前端部20在存储于上述节点编号栏32D的节点编号为其它的存储节点3的节点编号的情况下,判断为基于该写请求的写处理为应在该其它的存储节点3执行的处理。
而且,前端部20在步骤S58中判断为根据该写请求的写处理应在本节点执行的情况下,取得本节点内的映射表32中的写请求中作为写目的地而指定的主机卷HVOL所对应的行的存储控制部编号栏32E(图7)中存储的存储控制部编号,并向赋予了该存储控制部编号的本节点内的存储控制部(主动存储控制部)21传送该写请求(S59)。此外,前端部20此时将包含于该写请求的写目的地的主机卷HVOL的卷编号更新为与该主机卷HVOL相对应的内部卷IVOL的卷编号。
另外,收到了该写请求的存储控制部21参照未图示的管理表,确定该写请求中作为写目的地指定的内部卷IVOL和与该内部卷IVOL内的存储区域相对应的逻辑块LC(图4)以及该逻辑块LC内的存储区域。而且,存储控制部21生成指定这样确定的写数据的写目的地的逻辑块LC和该逻辑块LC内的存储区域的I/O指令,并将其向本节点内的后端部23发送(S60)。
后端部23收到该I/O指令时,参照未图示的管理表,确定分别提供与该I/O指令中指定的逻辑块LC相对应的各物理块PC(图4)的存储装置12(图2)。另外,后端部23在确定的存储装置12的一个存在于本节点内的情况下,向该存储装置12内的、与由I/O指令指定的逻辑块LC和该逻辑块LC内的存储区域对应的物理块PC的存储区域写入写数据(S61)。而且,后端部23在该写数据向存储装置12的写入完成时,将该内容的写完成通知向本节点的存储控制部(主动存储控制部)21发送(S62)。
另外,与步骤S61的处理同时,后端部23对提供与上述的逻辑块LC相对应的剩余的物理块PC的存储装置12所在的存储节点3(以下,适当将其称为“其它节点2”)内的对应的后端部23,经由后端网络6传送上述的I/O指令和写数据(S63)。其结果是,在该存储节点3(“其它节点2”)执行与步骤S61同样的写处理(S64),该写处理完成时,该内容的写完成通知经由后端网络6发送至“写请求接收节点”的存储控制部21。
“写请求接收节点”的存储控制部21收到本节点的来自后端部23的上述的写完成通知和必要的所有其它存储节点3的来自后端部23的上述写完成通知时,将请求的写处理完成的内容的完成通知通知给前端部20(S76)。另外,收到了该完成通知的前端部20将根据写请求的写处理完成的内容的完成通知经由第一通信装置13和存储服务网络5发送至该写请求的发送源的计算节点2(S77,S78)。由此,响应上述写请求的一连串的写处理结束。
另一方面,“写请求接收节点”的前端部20在步骤S58的判断中,得到响应该写请求的写处理为应在其它存储节点3执行的处理的判断的情况下,向赋予了存储于映射表32(图7)的、写请求中作为写目的地而指定的主机卷HVOL所对应的行的节点编号栏32D(图7)的节点编号的存储节点3(以下,适当地将其称为“其它节点1”)传送写请求(S66)。该写请求的传送经由后端网络6进行。
而且,接收到该写请求的“其它节点1”的前端部20基于接收到的写请求,在本节点内的存储器11(图2)上确保必要的容量的缓冲区域(S67)。
另外,上述前端部20之后参照存储于本节点内的存储器11的映射表32,取得存储于该映射表32的写请求中作为写目的地而指定的主机卷HVOL所对应的行的存储控制部编号栏32E(图7)的存储控制部编号,并向赋予了该存储控制部编号的本节点内的存储控制部(主动存储控制部)21传送该写请求(S68)。此时,前端部20将步骤S67中是否能够确保必要的容量的缓冲区域的信息(以下,将其称为缓冲确保与否信息)均通知给该存储控制部21。
而且,收到了该写请求的存储控制部88如上述基于该写请求和从前端部20赋予的缓冲确保与否信息,判断是否能够确保缓冲区域(S69),并将该判断结果向本节点的前端部20发送(S70)。因此,收到了该完成通知的前端部20将步骤S67中是否能够在存储器11上确保必要容量的缓冲区域的响应经由后端网络6发送至“写请求接收节点”的前端部20(S71)。
收到了该响应的“写请求接收节点”的前端部20在“其它节点1”的前端部20不能在存储器11上确保必要容量的缓冲区域的情况下,将该内容的错误通知经由第一通信装置13发送至写请求的发送源的计算节点2,并结束该一连串的写处理。
与之相对,上述“写请求接收节点”的前端部20在“其它节点1”的前端部20能够在存储器11上确保必要容量的缓冲区域的情况下,经由后端网络6向“其它节点1”传送写数据(S72)。
另外,收到了该写数据的“其它节点1”的前端部20将接收的写数据存储于步骤S67中确保的缓冲区域中(S73)。然后,在“其它节点1”中,对于步骤S59~步骤S61、步骤S63~步骤S64执行与上述的数据写处理同样的数据写处理(S74),当该数据写处理完成时,该内容的写完成通知从“其它节点1”的前端部20经由后端网络6发送至“写请求接收节点”的存储控制部21(S75)。
因此,此时“写请求接收节点”的存储控制部21收到“其它节点1”的来自后端部23的写完成通知和必要的所有其它存储节点3的来自后端部23的写完成通知时,将请求的写处理完成的内容的完成通知通知给本节点的前端部20(S76)。另外,收到了该完成通知的前端部20将响应写请求的写处理完成的内容的完成通知经由第一通信装置13和存储服务网络5发送至该写请求的发送源的计算节点2(S77,S78)。由此响应上述的写请求的一连串的写处理结束。
(5-2)读处理的流程
另一方面,图16表示在对由计算节点2构成集群7的任一存储节点3发送读请求的情况下,在该集群7内执行的读处理的流程。以下中,将在集群7内接收到读请求的存储节点3适当地称为“读请求接收节点”。
此外,读请求中,指定读目的地的主机卷HVOL的卷编号、该主机卷HVOL中的读目的地的存储区域的开头地址、读对象的数据(以下,将其称为读数据)的数据长度。
而且,“读请求接收节点”的第一通信装置13接收上述读请求时(S80),将接收到的读请求向本节点内的前端部20传送(S81)。另外,前端部20解析传送来的读请求,并判断按照该读请求的读处理是否为应在本节点执行的处理(S82)。
该判断参照映射表33(图7)的各行中、与读请求中作为读目的地而指定的主机卷HVOL对应的行的节点编号栏32D(图7)而进行。具体而言,前端部20在存储于上述节点编号栏32D的节点编号为本节点的节点编号的情况下,判断为按照该读请求的读处理为应在本节点执行的处理。另外,前端部20在存储于上述节点编号栏的节点编号为其它存储节点3的节点编号的情况下,判断为基于该读请求的读处理为应在该其它存储节点3执行的处理。
而且,前端部20在步骤S82中判断为响应该读请求的读处理应在本节点执行的情况下,取得存储于本节点的存储器11(图2)的映射表32(图7)的读请求中作为读目的地指定的主机卷HVOL所对应的行的存储控制部编号栏32E(图7)中存储的存储控制部编号,并向赋予了该存储控制部编号的本节点内的存储控制部(主动存储控制部)21传送该读请求(S83)。此外,前端部20此时将该读请求所包含的读目的地的主机卷HVOL的卷编号更新为与该主机卷HVOL相对应的内部卷IVOL的卷编号。
另外,收到了该读请求的存储控制部21参照未图示的管理表,确定该读请求中作为读目的地而指定的内部卷IVOL和与该内部卷IVOL内的存储区域相对应的逻辑块LC以及该逻辑块LC内的存储区域。而且,存储控制部21生成指定这样确定的读目的地的逻辑块LC以及该逻辑块LC内的存储区域的I/O指令,并将该指令发送至本节点内的后端部23(S84)。
后端部23收到该I/O指令时,参照未图示的管理表,从与该I/O指令中指定的逻辑块LC相对应的各物理块PC中确定提供一个物理块PC的存储装置12。在此,选择的物理块PC由搭载于“读请求接收节点”的存储装置12而提供。而且,后端部23读出确定的存储装置12内的、与由I/O指令指定的逻辑块LC以及该逻辑块LC内的存储区域对应的物理块PC的存储区域中存储的数据(S85)。而且,后端部23将读出的数据(读数据)向本节点的存储控制部21发送(S86)。
接收到该读数据的存储控制部21将该读数据向本节点的前端部20传送(S87)。另外,收到了该读数据的前端部20将该读数据经由第一通信装置13和存储服务网络5向读请求的发送源的计算节点2发送(S88,S89)。由此响应上述读请求的一连串的读处理结束。
另一方面,“读请求接收节点”的前端部20在步骤S82的判断中,得到根据该读请求的读处理为应在其它存储节点3执行的处理的判断的情况下,向赋予了与映射表32(图7)的读请求中作为读目的地而指定的主机卷HVOL对应的行的节点编号栏32D(图7)中存储的节点编号的存储节点3(以下,适当地将其称为“其它节点”)传送该读请求(S90)。该读请求的传送经由后端网络6进行。
而且,接收到该读请求的“其它节点”的前端部20解析接收到的读请求的内容(S91)。另外,上述前端部20参照存储于本节点的存储器11的映射表32,取得与该映射表32的读请求中作为读目的地而指定的主机卷HVOL对应的行的存储控制部编号栏32E(图7)中存储的存储控制部编号,并向赋予了该存储控制部编号的本节点内的存储控制部(主动存储控制部)21传送该读请求(S92)。此时,将该读请求中所包含的读目的地的主机卷HVOL的卷编号更新为与该主机卷HVOL相对应的内部卷IVOL的卷编号。
然后,在该“其它节点”执行与步骤S84~步骤S86同样的数据读处理(S93),通过该数据读处理从对应的存储装置12读出的数据(读数据)从“其它节点”的前端部20经由后端网络6向“读请求接收节点”的前端部20发送(S94)。
而且,接收到该读数据的“读请求接收节点”的前端部20将该读数据经由第一通信装置13和存储服务网络6向读请求的发送源的计算节点2传送(S88,S89)。由此,响应上述读请求的一连串的读处理结束。
(6)本实施方式的效果
如上,在本实施方式的信息处理系统1中,与分别配置于各存储节点3的存储控制部21相对应地生成内部卷IVOL,并且使生成的内部卷IVOL与作为用于读/写数据的存储区域而向计算节点2提供的主机卷2相对应。
另外,本信息处理系统1中,在来自计算节点2的I/O请求发给存储节点3的情况下,该存储节点3的前端部20确定配置有与该I/O请求中作为读/写目的地而指定的主机卷HVOL相对应的内部卷IVOL的存储节点3,在确定的存储节点3为本节点的情况下,将该I/O请求传送至本节点内的对应的存储控制部21,在确定的存储节点3为其它存储节点3的情况下,将该I/O请求传送至该存储节点3。
因此,根据本信息处理系统1,不管存储节点3的向外扩展的有无,计算节点2均能够不在意I/O请求的发行目的地的存储节点3而访问期望的数据。因此,根据本实施方式,能够实现扩展性较高的本信息处理系统1。
另外,根据本信息处理系统1,全部前端部20担任与向外扩展相关的处理,存储控制部21仅执行在本节点内完成的处理,因此,作为存储控制部21也能够使用现有的存储装置中利用的控制软件。
(7)其它的实施方式
此外,上述的实施方式中,对使内部卷IVOL和主机卷HVOL一一对应的情况进行了说明,但本发明不限于此,也可以使多个主机卷HVOL与一个内部卷IVOL对应。
另外,上述的实施方式中,对将本发明应用于图1那样构成的信息处理系统1的情况进行了说明,但本发明不限于此,能够广泛应用其它各种结构的信息处理系统。
另外,上述的实施方式中,对将各存储节点2内的前端部20、存储控制部21和后端部23等设为软件结构的情况进行了说明,但本发明不限于此,也可以将它们设为硬件结构。
另外,上述的实施方式中,对在各存储节点3内分别配置集群控制部25,且将其中的一个集群控制部25选出为主集群控制部25,并使该主集群控制部25执行上述的各种处理的情况进行了叙述,但本发明不限于此,也可以不在各存储节点3内配置集群控制部25,而将具有作为上述主集群控制部25的功能的服务器装置等与存储节点3分开地设置。
另外,管理程序也可以在服务器上进行动作,一个或多个虚拟计算机在管理程序上动作,图3所示的各种程序在该虚拟计算机上进行动作。即,如果各种程序(控制软件20,冗余化部22,集群控制部23)在物理计算机的硬件上进行动作,则也可以在虚拟计算机上进行动作。同样,计算节点2也可以是在虚拟计算机上进行动作的应用程序(主机程序),也可以是物理性的主机计算机(主机计算机)。信息处理系统1具有多个服务器时,服务器的一部分也可以处于不同的地点。另外,信息处理系统1的服务器的一部分或全部也可以处于云端上,而经由网络向用户提供服务。
也可以是各种程序(控制软件20,冗余化部22,集群控制部23)进行动作的虚拟计算机、主机程序进行动作的虚拟计算机处于同一服务器(节点)上的结构(超融合基础架构),也可以是处于经由网络连接的不同的服务器上的结构。
产业上的可利用性
本发明能够广泛应用于包含多个存储节点的各种结构的系统。
附图标记说明
1……信息处理系统、2……计算节点、3……存储节点、4……管理节点、5……存储服务网络、6……后端网络、7……集群、10……CPU、12……存储装置、20……前端部、21……存储控制部、22……容量控制部、23……后端部、25……集群控制部、28……存储控制部对、30……存储控制部对表、31……前端表卷表、32……映射表、33……前端目标表、34……存储控制部构成信息管理表、35……全局池卷表、GVOL……全局池卷、HVOL……主机卷、IVOL……内部卷、LC……逻辑块、PC……物理块、PPT……物理端口、TG……目标、VPT……虚拟端口。
Claims (11)
1.一种包括由多个存储节点构成的集群的系统,其特征在于:
所述存储节点包括:
执行与分配来的I/O请求相应的I/O处理的存储控制部;和
将从上级装置发来的所述I/O请求分配给本节点内的所述存储控制部或对应的其它所述存储节点的前端部,
所述存储控制部与配置在不同于本节点的其它所述存储节点的所述存储控制部一起被设定成存储控制部对,
构成所述存储控制部对的一个所述存储控制部设定成当前用存储控制部,并且另一个所述存储控制部设定成待机存储控制部,
对所述上级装置提供了作为用于读写数据的存储区域的一个或多个虚拟的第一逻辑卷,并且在所述存储节点内,与配置于该存储节点的当前用存储控制部的所述存储控制部对应地生成了与任一个所述第一逻辑卷对应的虚拟的第二逻辑卷,
所述上级装置将以所述第一逻辑卷为I/O目的地的所述I/O请求发送至所述存储节点,
所述前端部将所述第一逻辑卷与所述第二逻辑卷之间的对应关系作为映射信息进行管理,
在从所述上级装置发来了所述I/O请求的情况下,基于所述映射信息,确定配置有经由所述第二逻辑卷与该I/O请求中作为I/O目的地而指定的所述第一逻辑卷对应的所述存储控制部的所述存储节点,在所确定的所述存储节点是本节点的情况下,将该I/O请求分配给本节点内的该存储控制部,在所确定的所述存储节点是其它所述存储节点的情况下,将该I/O请求分配给该存储节点。
2.根据权利要求1所述的系统,其特征在于:
将各所述第一逻辑卷全部汇总并作为跨构成所述集群的各所述存储节点的一个数据池来管理。
3.根据权利要求1所述的系统,其特征在于:
具有控制所述集群整体的集群控制部,
所述集群控制部监视所述集群内的各所述存储节点有无故障,
在检测到在任意个所述存储节点发生了故障的情况下,将与配置于该存储节点的当前用存储控制部的所述存储控制部一起构成相同的所述存储控制部对的待机存储控制部的所述存储控制部切换成当前用存储控制部,
更新各所述存储节点的所述前端部所管理的所述映射信息,以将与原当前用存储控制部的所述存储控制部对应的所述第二逻辑卷的对应目的地切换为已切换成当前用存储控制部的所述存储控制部。
4.根据权利要求1所述的系统,其特征在于:
具有控制所述集群整体的集群控制部,
所述集群控制部在所述集群内增设了所述存储节点的情况下,将配置于任意个所述存储节点的当前用存储控制部的所述存储控制部所执行的处理转移至增设的所述存储节点的所述存储控制部,
与该存储控制部对应地在增设的所述存储节点内生成所述第二逻辑卷,并且更新各所述存储节点的所述前端部所管理的所述映射信息,以将与原当前用存储控制部的所述存储控制部对应的所述第二逻辑卷的对应目的地切换为接收了该原当前用存储控制部的所述存储控制部的处理的转移的、增设的所述存储节点的所述存储控制部。
5.根据权利要求4所述的系统,其特征在于:
所述集群控制部使负荷最高的当前用存储控制部的所述存储控制部所执行的处理转移至增设的所述存储节点的所述存储控制部。
6.一种包括由多个存储节点构成的集群的系统的控制方法,其特征在于:
所述存储节点包括执行与分配来的I/O请求相应的I/O处理的存储控制部,
所述存储控制部与配置在不同于本节点的其它所述存储节点的所述存储控制部一起被设定成存储控制部对,
构成所述存储控制部对的一个所述存储控制部设定成当前用存储控制部,并且另一个所述存储控制部设定成待机存储控制部,
对上级装置提供作了为用于读写数据的存储区域的一个或多个虚拟的第一逻辑卷,
所述系统的控制方法包括:
第一步骤,在所述存储节点内,与配置于该存储节点的当前用存储控制部的所述存储控制部对应地生成与任一个所述第一逻辑卷对应的虚拟的第二逻辑卷,将所述第一逻辑卷与所述第二逻辑卷之间的对应关系作为映射信息在各存储节点分别进行管理;
第二步骤,在从所述上级装置发来了以所述第一逻辑卷为I/O目的地的所述I/O请求的情况下,基于所述映射信息,确定配置有经由所述第二逻辑卷与该I/O请求中作为I/O目的地而指定的所述第一逻辑卷对应的所述存储控制部的所述存储节点;和
第三步骤,在确定的所述存储节点是本节点的情况下,将该I/O请求分配给本节点内的该存储控制部,在确定的所述存储节点是其它所述存储节点的情况下,将该I/O请求分配给该存储节点。
7.根据权利要求6所述的系统的控制方法,其特征在于:
将各所述第一逻辑卷全部汇总并作为跨构成所述集群的各所述存储节点的一个数据池来管理。
8.根据权利要求6所述的系统的控制方法,其特征在于:
监视所述集群内的各所述存储节点有无故障,
在检测到在任意个所述存储节点发生了故障的情况下,将与配置于该存储节点的当前用存储控制部的所述存储控制部一起构成相同的所述存储控制部对的待机存储控制部的所述存储控制部切换成当前用存储控制部,
更新各所述存储节点所管理的所述映射信息,以将与原当前用存储控制部的所述存储控制部相对应的所述第二逻辑卷的对应目的地切换为已切换成当前用存储控制部的所述存储控制部。
9.根据权利要求6所述的系统的控制方法,其特征在于:
在所述集群内增设了所述存储节点的情况下,将配置于任意个所述存储节点的当前用存储控制部的所述存储控制部所执行的处理转移至增设的所述存储节点的所述存储控制部,
与该存储控制部对应地在增设的所述存储节点内生成所述第二逻辑卷,并且更新各所述存储节点所管理的所述映射信息,以将与原当前用存储控制部的所述存储控制部对应的所述第二逻辑卷的对应目的地切换为接收了该原当前用存储控制部的所述存储控制部的处理的转移的、增设的所述存储节点的所述存储控制部。
10.根据权利要求9所述的系统的控制方法,其特征在于:
使负荷最高的当前用存储控制部的所述存储控制部所执行的处理转移至增设的所述存储节点的所述存储控制部。
11.一种存储有程序的存储介质,其特征在于:
所述程序在包括由多个存储节点构成的集群的系统中,在所述存储节点中执行,
所述存储节点具有执行与分配来的I/O请求相应的I/O处理的存储控制部,
所述存储控制部与配置在不同于本节点的其它所述存储节点的所述存储控制部一起被设定成存储控制部对,
构成所述存储控制部对的一个所述存储控制部设定成当前用存储控制部,并且另一个所述存储控制部设定成待机存储控制部,
对上级装置提供了作为用于读写数据的存储区域的一个或多个虚拟的第一逻辑卷,
所述程序使所述存储节点执行包括以下步骤的处理:
第一步骤,在所述存储节点内,与配置于该存储节点的当前用存储控制部的所述存储控制部对应生成与任意个所述第一逻辑卷对应的虚拟的第二逻辑卷,将所述第一逻辑卷与所述第二逻辑卷之间的对应关系作为映射信息进行管理;
第二步骤,在由所述上级装置发来了以所述第一逻辑卷为I/O目的地的所述I/O请求的情况下,基于所述映射信息,确定配置有经由所述第二逻辑卷与该I/O请求中作为I/O目的地而指定的所述第一逻辑卷对应的所述存储控制部的所述存储节点;和
第三步骤,在确定的所述存储节点为本节点的情况下,将该I/O请求分配给本节点内的该存储控制部,在确定的所述存储节点为其它的所述存储节点的情况下,将该I/O请求分配给该存储节点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210316408.4A CN114647382A (zh) | 2017-11-30 | 2018-08-28 | 系统及其控制方法以及存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-231216 | 2017-11-30 | ||
JP2017231216A JP6734251B2 (ja) | 2017-11-30 | 2017-11-30 | システム及びその制御方法並びにプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210316408.4A Division CN114647382A (zh) | 2017-11-30 | 2018-08-28 | 系统及其控制方法以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109857335A CN109857335A (zh) | 2019-06-07 |
CN109857335B true CN109857335B (zh) | 2022-04-19 |
Family
ID=65633205
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210316408.4A Pending CN114647382A (zh) | 2017-11-30 | 2018-08-28 | 系统及其控制方法以及存储介质 |
CN201810986526.XA Active CN109857335B (zh) | 2017-11-30 | 2018-08-28 | 系统及其控制方法以及存储介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210316408.4A Pending CN114647382A (zh) | 2017-11-30 | 2018-08-28 | 系统及其控制方法以及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (4) | US10229021B1 (zh) |
JP (1) | JP6734251B2 (zh) |
CN (2) | CN114647382A (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11194746B2 (en) * | 2017-12-22 | 2021-12-07 | Seagate Technology Llc | Exchanging drive information |
US10834190B2 (en) | 2018-01-18 | 2020-11-10 | Portworx, Inc. | Provisioning of clustered containerized applications |
US11036419B1 (en) * | 2018-07-12 | 2021-06-15 | Cisco Technology, Inc. | Distributed storage resource reservation for replication, disaster recovery and data protection across multiple sites |
US11734192B2 (en) | 2018-12-10 | 2023-08-22 | International Business Machines Corporation | Identifying location of data granules in global virtual address space |
US11016908B2 (en) * | 2018-12-11 | 2021-05-25 | International Business Machines Corporation | Distributed directory of named data elements in coordination namespace |
JP7017546B2 (ja) | 2019-09-27 | 2022-02-08 | 株式会社日立製作所 | ストレージシステム、パス管理方法、及びパス管理プログラム |
US11573736B2 (en) * | 2020-11-30 | 2023-02-07 | EMC IP Holding Company LLC | Managing host connectivity to a data storage system |
JP2022191854A (ja) | 2021-06-16 | 2022-12-28 | 株式会社日立製作所 | 記憶システムおよびデータ処理方法 |
CN113487026B (zh) * | 2021-07-05 | 2024-05-03 | 江苏号百科技有限公司 | 一种图计算中io节点高效读取数据的方法及系统 |
CN116909491B (zh) * | 2023-09-12 | 2024-01-26 | 苏州浪潮智能科技有限公司 | 数据存储方法、装置及设备、介质和存储集群 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1540524A (zh) * | 2003-10-31 | 2004-10-27 | 清华大学 | 存储区域网络中分布式虚拟化存储的方法 |
JP4555036B2 (ja) * | 2004-09-16 | 2010-09-29 | 株式会社日立製作所 | ストレージ装置及びストレージ装置のデバイス切替制御方法 |
WO2013075519A1 (en) * | 2011-11-23 | 2013-05-30 | International Business Machines Corporation | Use of virtual drive as hot spare for raid group |
CN103180852A (zh) * | 2012-08-09 | 2013-06-26 | 华为技术有限公司 | 分布式数据处理方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100423491C (zh) * | 2006-03-08 | 2008-10-01 | 杭州华三通信技术有限公司 | 虚拟化网络存储系统及其网络存储设备 |
JP4902403B2 (ja) * | 2006-10-30 | 2012-03-21 | 株式会社日立製作所 | 情報システム及びデータ転送方法 |
US20090265510A1 (en) * | 2008-04-17 | 2009-10-22 | Dell Products L.P. | Systems and Methods for Distributing Hot Spare Disks In Storage Arrays |
JP5056747B2 (ja) * | 2008-12-25 | 2012-10-24 | 富士通株式会社 | 記憶領域管理装置、記憶領域管理方法 |
US10191685B2 (en) | 2014-06-11 | 2019-01-29 | Hitachi, Ltd. | Storage system, storage device, and data transfer method |
US10554749B2 (en) | 2014-12-12 | 2020-02-04 | International Business Machines Corporation | Clientless software defined grid |
US10152250B1 (en) * | 2016-09-27 | 2018-12-11 | EMC IP Holding Company LLC | File system snapshot replication techniques |
US10152230B1 (en) * | 2016-09-27 | 2018-12-11 | EMC IP Holding Company LLC | File-based replication techniques |
-
2017
- 2017-11-30 JP JP2017231216A patent/JP6734251B2/ja active Active
-
2018
- 2018-03-09 US US15/917,359 patent/US10229021B1/en active Active
- 2018-08-28 CN CN202210316408.4A patent/CN114647382A/zh active Pending
- 2018-08-28 CN CN201810986526.XA patent/CN109857335B/zh active Active
-
2019
- 2019-02-21 US US16/281,327 patent/US10635551B2/en active Active
-
2020
- 2020-04-10 US US16/845,891 patent/US11256582B2/en active Active
-
2022
- 2022-01-13 US US17/575,278 patent/US11734137B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1540524A (zh) * | 2003-10-31 | 2004-10-27 | 清华大学 | 存储区域网络中分布式虚拟化存储的方法 |
JP4555036B2 (ja) * | 2004-09-16 | 2010-09-29 | 株式会社日立製作所 | ストレージ装置及びストレージ装置のデバイス切替制御方法 |
WO2013075519A1 (en) * | 2011-11-23 | 2013-05-30 | International Business Machines Corporation | Use of virtual drive as hot spare for raid group |
CN103180852A (zh) * | 2012-08-09 | 2013-06-26 | 华为技术有限公司 | 分布式数据处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20220138063A1 (en) | 2022-05-05 |
CN109857335A (zh) | 2019-06-07 |
JP6734251B2 (ja) | 2020-08-05 |
US10635551B2 (en) | 2020-04-28 |
US11256582B2 (en) | 2022-02-22 |
US10229021B1 (en) | 2019-03-12 |
US20200241982A1 (en) | 2020-07-30 |
US11734137B2 (en) | 2023-08-22 |
US20190188096A1 (en) | 2019-06-20 |
JP2019101700A (ja) | 2019-06-24 |
CN114647382A (zh) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109857335B (zh) | 系统及其控制方法以及存储介质 | |
CN109857445B (zh) | 存储系统和控制软件配置方法 | |
JP6814764B2 (ja) | 情報処理システム及びパス管理方法 | |
US8244924B2 (en) | Discovery and configuration of device configurations | |
WO2012131756A1 (en) | Computer system and computer system management method | |
WO2013118195A1 (en) | Storage management method and storage system in virtual volume having data arranged astride storage devices | |
US11669360B2 (en) | Seamless virtual standard switch to virtual distributed switch migration for hyper-converged infrastructure | |
US11573736B2 (en) | Managing host connectivity to a data storage system | |
JP2008165620A (ja) | ストレージ装置構成管理方法、管理計算機及び計算機システム | |
US9904639B2 (en) | Interconnection fabric switching apparatus capable of dynamically allocating resources according to workload and method therefor | |
JP6961045B2 (ja) | システム及びその制御方法並びにプログラム | |
US11405455B2 (en) | Elastic scaling in a storage network environment | |
US10782889B2 (en) | Fibre channel scale-out with physical path discovery and volume move | |
US11392329B1 (en) | Uniform host attachment | |
US10305987B2 (en) | Method to syncrhonize VSAN node status in VSAN cluster | |
JP6751423B2 (ja) | ストレージ装置及びその制御方法 | |
JP7193602B2 (ja) | システム及びその制御方法並びにプログラム | |
JP6244496B2 (ja) | サーバストレージシステムの管理システム及び管理方法 | |
US10768834B2 (en) | Methods for managing group objects with different service level objectives for an application and devices thereof | |
US20200068042A1 (en) | Methods for managing workloads in a storage system and devices thereof | |
JP7057408B2 (ja) | 記憶システム及びその制御方法 | |
US20150324416A1 (en) | Management apparatus and management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |