CN114063895A - 存储系统和存储系统中的数据复制方法 - Google Patents
存储系统和存储系统中的数据复制方法 Download PDFInfo
- Publication number
- CN114063895A CN114063895A CN202110215909.9A CN202110215909A CN114063895A CN 114063895 A CN114063895 A CN 114063895A CN 202110215909 A CN202110215909 A CN 202110215909A CN 114063895 A CN114063895 A CN 114063895A
- Authority
- CN
- China
- Prior art keywords
- information
- meta
- data
- snapshot
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/11—File system administration, e.g. details of archiving or snapshots
- G06F16/128—Details of file system snapshots on the file-level, e.g. snapshot creation, administration, deletion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/27—Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/182—Distributed file systems
- G06F16/184—Distributed file systems implemented as replicated file system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/065—Replication mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0673—Single storage device
- G06F3/0679—Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0685—Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供存储系统和存储系统中的数据复制方法,在存储系统中能够同时实现快照的操作性能和I/O性能。在存储系统中,被追记至追记区域的数据的元信息由将逻辑卷中的数据的位置信息与追记区域中的数据的位置信息产生关联起来的第1层级的元信息和第2层级的元信息构成,数据管理部在生成逻辑卷的快照时,在与复制源相同的元信息区域内,生成保存在被分配给多个控制器的多个元信息区域保存的第1层级的元信息的副本。数据控制部基于按照第1层级的元信息所参照的第2层级的元信息,从逻辑卷访问追记区域的数据,基于按照第1层级的元信息的副本所参照的第2层级的元信息,从快照访问追记区域的数据。
Description
技术领域
本发明涉及存储系统和存储系统中的数据复制方法。
背景技术
近年来,数据使用需求升高,数据复制的机会增加。随之,在存储系统中,快照(快照)功能越来越重要。历来,快照的代表性的实现方式中有Redirect on Write(RoW)(写重定向)方式(例如参照专利文献1)。在RoW方式中,由于没有数据和元信息的拷贝,所以就有对快照生成时的I/O性能的影响小的优点。RoW方式在AFA(All Flash Array:全闪存阵列)装置中采用得多。
RoW方式是数据追写的方式。追写是指,在存储系统中写入数据时,不覆盖在写入前保存的数据,而在新的区域保存写入数据,以参照在新的区域保存的数据的方式改写元信息的数据保存方式。元信息按树形结构管理。当取得一个复制源卷的快照时,从快照的元信息树的根(Root)参照该时刻的复制源卷的元信息树的根。在该时刻,由于复制源卷的根从快照参照,所以变得不可改写而仅容许读出。或者,伴随向复制源卷的写入,在复制源准备新的根,生成参照更新数据的保存场所的新的元信息,与新根下级连接。进一步,以能够确定未写入的区域的数据保存位置的方式从新根参照旧根。即,不能伴随快照取得直接改写元信息,元信息也被追写。
现有技术文献
专利文献
专利文献1:美国专利第9646039号说明书
发明内容
发明所要解决的问题
但是,在现有技术的RoW方式中,需要在读出时从元信息的树搜索所期望的数据和元信息,存在读性能(特别是响应)差的问题。此外,当写入增加时树层次变深,存在减少树级数的异步处理进行动作,对I/O性能产生影响的问题。
此外,树的根以外的元信息在多个卷和快照共享。但是,根的元信息是每个卷和快照的信息。因此,当在特定卷和快照负载有偏倚时,存在负载集中于分别控制各卷和各快照的多个控制器中的特定的控制器,无法用完多控制器的资源的问题。
本发明是鉴于上述问题而完成的,其目的在于,在存储系统中同时实现快照的操作性能和I/O性能。
用于解决问题的技术方案
为了达成所述目,本发明的存储系统具有多个控制器并能够生成作为逻辑卷的副本的快照,其特征在于:所述控制器被分配有要负责的所述逻辑卷或所述快照,并被分配有保存所述逻辑卷或所述快照的数据的追记区域和保存追记到追记区域的数据的元信息的元信息区域,所述控制器包括:将所述逻辑卷的数据追记到追记区域的数据控制部;和将由所述数据控制部追记到所述追记区域的数据的元信息保存至元信息区域的数据管理部,所述元信息由将所述逻辑卷中的数据的位置信息与所述追记区域中的所述数据的位置信息关联起来的第1层级的元信息和第2层级的元信息构成,所述第1层级的元信息是将所述逻辑卷中的数据的位置信息与关于该数据的所述第2层级的元信息的保存位置关联起来的信息,所述第2层级的元信息是管理所述追记区域中的所述数据的位置信息的信息,所述数据管理部在生成所述逻辑卷的快照时,在与复制源相同的元信息区域内,生成保存在被分配给多个控制器的多个元信息区域中的所述第1层级的元信息的副本,与生成了所述第1层级的元信息的副本的元信息区域相关的控制器的数据控制部,基于按照所述第1层级的元信息所参照的所述第2层级的元信息,从所述逻辑卷访问所述追记区域的数据,基于按照所述第1层级的元信息的副本所参照的所述第2层级的元信息,从所述快照访问所述追记区域的数据。
发明的效果
根据本发明,能够在存储系统中同时实现快照的操作性能和I/O性能。
附图说明
图1是实施例的存储系统的逻辑结构的概要的说明图。
图2是实施例1的计算机系统的硬件结构的说明图。
图3是存储系统使用的程序和信息的说明图。
图4是目录表的结构的说明图。
图5是映射表的结构的说明图。
图6是卷管理表的结构的说明图。
图7是目录区域管理表的结构的说明图。
图8是映射区域管理表的结构的说明图。
图9是目录区域分配表的结构的说明图。
图10是映射区域分配表的结构的说明图。
图11是快照世代管理表的结构的说明图。
图12是表示VOL生成处理的处理顺序的流程图。
图13是表示快照生成处理的处理顺序的流程图。
图14是表示追记处理的处理顺序的流程图。
图15是表示读处理的处理顺序的流程图。
图16是表示前端写处理(PVOL/快照通用)的处理顺序的流程图。
图17是表示后端写处理的处理顺序的流程图。
图18是表示实施例1的还原处理的处理顺序的流程图。
图19是表示实施例1的重新同步处理的处理顺序的流程图。
图20是表示PVOL/快照删除处理的处理顺序的流程图。
图21是用于说明实施例1的效果的图(其1)。
图22是用于说明实施例1的效果的图(其2)。
图23是表示实施例2的还原处理的处理顺序的流程图。
图24是表示实施例2的重新同步处理的处理顺序的流程图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。其中,以下说明的实施方式对要求的权利范围所涉及的发明没有限定作用,此外,并不限定于实施方式的中说明的诸要素及其组合全部为发明的解决方式所必需。此外,关于发明的结构所需而周知的结构,存在省略图示和说明的情况。
在以下的说明中,有时通过“xxx表”之类的表达方式,说明针对输入得到输出的信息,该信息为任意的结构的数据均可。因此,能够将“xxx表”称为“xxx信息”。
此外,在以下的说明中,各表的结构为一个例子,既可以1个表分割为2个以上的表,也可以2个以上的表的全部或一部分为1个表。
此外,在以下的说明中,存在以“程序”为主语说明处理的情况。程序通过由处理器部执行,适当地使用存储部和/或接口部等进行规定的处理,处理的主语也可以为处理器部(或者具有该处理器部的控制器那样的器件)。
程序既可以安装于计算机那样的装置,例如,也可以处于程序分发服务器或计算机可读取的(例如非临时的)记录介质中。此外,在以下的说明中,既可以2个以上程序作为1个程序实现,也可以1个程序作为2个以上程序实现。
此外,“处理器部”为1个或多个处理器。处理器典型的是CPU(Central ProcessingUnit:中央处理器)那样的微处理器,GPU(Graphics Processing Unit:图形处理器)那样的其它种类的处理器。此外,处理器既可以单核也可以为多核。此外,处理器也可以是进行处理的一部分或全部的硬件电路(例如FPGA(Field-Programmable Gate Array:现场可编程门阵列)或ASIC(Application Specific Integrated Circuit:专用集成电路))之类的广义的处理器。
此外,在以下的说明中,作为各种对象的识别信息,使用识别号码,也可以采用识别号码以外的种类的识别信息(例如包含英文字母和符号在内的识别码)。在以下的说明中,“#”表示号码,例如“xxx#”表示按号码识别的xxx。
此外,在以下的说明中,在无区别地说明同种要素的情况下使用参照附图标记(或参照附图标记中的通用附图标记),在对同种要素进行区别说明的情况下,有时使用要素的识别号码(或参照附图标记)。此外,各图所示的各要素的数量为一个例子,并不限定于图示。
[实施例1]
图1是实施例的存储系统201的逻辑结构的概要的说明图。存储系统201是生成快照时,使用RoW(Redirect on Write)方式的存储系统。如图1所示,存储系统201作为逻辑结构具有PVOL(Primary Volume:主卷)100、快照101、DSVOL(Data Store Volume:数据存储卷)102和池(Pool)107。
PVOL100是在主机装置提供的逻辑卷。快照101是根据RoW方式生成的PVOL100的复制卷,在主机装置提供。
池107从物理驱动器(未图示)分配物理存储区域。DSVOL102是从池107分割出的逻辑存储区域,是包含多个DSVOL102-i(i=0,1,……,n-1(n是按每个池107固定的DSVOL数))的逻辑存储区域。DSVOL102-i全部为相同容量。
在DSVOL102中,保存PVOL100的管理信息(元信息)的PVOL用的目录表103,作为目录表103-i(i=0,1,……,n-1)在各个DSVOL102-i分散配置。PVOL100的管理信息是2级层级的树结构的映射信息,PVOL用的目录表103对应于第1层级的映射信息。
PVOL用的目录表103是目录表103-i(i=0,1,……,n-1)的集合,按每PVOL100设置。在目录表103被赋予目录#。在根据PVOL的容量存在对1个PVOL分配多个目录表103的情况。在这种情况下,目录#也被分配多个。
PVOL用的目录表103是将PVOL100上的数据111-j(j=0,1,2)的PVOL内地址转换为保存映射表105的DSVOL102内的地址的表。
此外,在DSVOL102中,保存快照101的管理信息(元信息)的SS(快照)用的目录表104作为目录表104-i(i=0,1,……,n-1)在各个DSVOL102-i分散配置。SS用的目录表104中的目录表104-i是PVOL用的目录表103中的目录表103-i的拷贝(copy)。
SS用的目录表104是目录表104-i(i=0,1,……,n-1)的集合,按每快照101设置。在目录表104中被赋予目录#。存在根据快照的容量对1个快照分配多个目录表104的情况。在这种情况下,目录#也被分配多个。SS用的目录表104为与PVOL用的目录表103相同的表结构。
SS用的目录表104是将快照101上的数据111-j(j=1,2,3)的快照内地址转换为保存映射表105的DSVOL102内的地址的表。
此外,在DSVOL102中,保存PVOL100和快照101的管理信息(元信息)的映射表105,作为映射表105-i(i=0,1,……,n-1)在各个DSVOL102-i分散配置。映射表105对应于上述的2级层级的树结构的映射信息中的第2层级的映射信息。
映射表105是映射表105-i(i=0,1,……,n-1)的集合,按每PVOL100设置。将多个映射表105如映射#那样按号码区分。映射#按每快照树(将任一个PVOL作为根的快照的集合)分配,与向PVOL或快照的写入引起的数据容量的增加相应地增加。
映射表105是和数据111-j(j=0,1,2,3)的PVOL/快照内地址转换为追记区域106内地址的表。
此外,在DSVOL102中,保存PVOL100和快照101的数据的追记区域106作为追记区域106-i(i=0,1,……,n-1),在各个DSVOL102-i分散配置。
如上所述,在各DSVOL102-i中,配置1个以上(PVOL用的)目录表103-i、1个以上(SS用的)目录表104-i、1个以上映射表105-i和追记区域106-i。
图2是实施例1的计算机系统100的硬件结构的说明图。计算机系统100包括存储系统201、服务器系统202和管理系统203。存储系统201与服务器系统202经FC(FiberChannel:光纤通道)网络204连接。存储系统201与管理系统203经IP(Internet Protocol:互联网协议)网络205连接。另外,FC网络204和IP网络205也可以是同一通信网络。
存储系统201包括多个存储控制器210和多个PDEV220。在存储控制器210连接有作为物理驱动器的PDEV220。对1个存储控制器210分配1个或多个DSVOL102-i(i=0,1,……,n-1)。
存储控制器210包括1个以上的处理器211、1个以上的存储器212、P-I/F213、S-I/F214和M-I/F215。
处理器211是处理器部的一个例子。处理器211也可以包括进行压缩和解压缩的硬件电路。在本实施例中,处理器211进行快照生成、还原、重新同步、压缩和解压缩的控制等。
存储器212是存储部的一个例子。存储器212存储处理器211执行的程序、处理器211使用的数据等。处理器211执行存储器212中保存的程序。另外,在本实施例中,例如,存储器按存储器212和处理器211的组二重化。
P-I/F213、S-I/F214和M-I/F215是接口部的一个例子。
P-I/F213是进行PDEV220与存储控制器210之间的数据的交互的中间通信接口器件。在P-I/F213连接多个PDEV220。
S-I/F214是进行服务器系统202与存储控制器210之间的数据的交互的中间通信接口器件。在S-I/F214经FC网络204连接服务器系统202。
M-I/F215是进行管理系统203与存储控制器210之间的数据的交互的中间通信接口器件。在M-I/F215经IP网络205连接管理系统203。
服务器系统202包括1个以上的主机装置。服务器系统202对存储控制器210发送指定了I/O目的地的I/O请求(写请求或读请求)。I/O目的地例如是LUN(Logical UnitNumber:逻辑单元号)那样的逻辑卷号,LBA(Logical Block Address:逻辑区块地址)那样的逻辑地址等。
管理系统203包括1个以上的管理装置。管理系统203管理存储系统201。
图3是存储系统201使用的程序和信息的说明图。存储器212包括本地存储器300、缓存存储器301、共享存储器302等存储器区域。这些存储器区域中的至少1个存储器区域也可以是独立的存储器。本地存储器300被与包括该本地存储器300在内的存储器212属于同一组的处理器211使用。
在本地存储器300中保存卷生成程序303、快照生成程序304、读程序305、前端写程序306、后端写程序307、还原程序308、重新同步程序309和PVOL/快照删除程序310。这些程序按多个存储控制器210的每个控制器设置,相互合作进行目标处理。这些程序后述。
在缓存存储器301临时保存对PDEV220写入或读出的数据集。
共享存储器302被与包括该共享存储器302在内的存储器212属于同一组的处理器211和属于不同的组的处理器211两者使用。在共享存储器302中保存管理信息。
管理信息包括卷管理表311、目录区域管理表312、映射区域管理表313、目录区域分配表314、映射区域分配表315和快照世代管理表316。关于这些表,参照附图后述。
图4是目录表103-i,104-i(i=0,1,……,n-1)的结构的说明图。PVOL用的目录表103-i与SS用的目录表104-i为相同结构且相同数据大小,在各个DSVOL102-i分散配置。各目录表103-i、104-i的1个条目对应PVOL100的逻辑数据的粒度(例如256KB)单位的数据。即,目录表103、104以PVOL100的逻辑数据的粒度为单位,在多个DSVOL102-i分散配置。目录表104-i(i=0,1,……,n-1)是通过DSVOL102-i的存储控制器210的控制,拷贝了目录表103-i(i=0,1,……,n-1)的表。
目录表103-i、104-i具有PVOL/快照内地址400和参照目的地地址(映射区域内地址)401。PVOL/快照内地址400在目录表103-i的情况下为在PVOL100内的对象数据的保存逻辑地址,在目录表104-i的情况下为在快照101内的对象数据的保存逻辑地址。参照目的地地址(映射区域内地址)401是对映射表105-i的指针信息。在PVOL/快照内地址400具有上限值(在图4的例子中为1000000),如果超过上限值则生成新的集合(目录#)的目录表。
此外,关于保存有访问的PVOL/快照内地址400与参照目的地地址(映射区域内地址)401的对应关系的表是否是相应的目录#的哪一个的目录表103-i、104-i,利用将PVOL/快照内地址400除以DSVOL的数n所得的余数来求取。
参照目的地地址(映射区域内地址)401对应于与该目录表103-i、104-i对应的映射表105-i的映射区域内地址500。
图5是映射表105-i(i=0,1,……,n-1)的结构的说明图。映射表105-i具有映射区域内地址500、参照目的地地址(追记区域内地址)501和压缩后容量502。
映射区域内地址500是与该映射表105-i对应的目录表103-i、104-i的参照目的地地址(映射区域内地址)401。参照目的地地址(追记区域内地址)501是保存对象数据的追记区域106内的地址。压缩后容量502是PVOL100或快照101的对象数据保存在追记区域106-i时的压缩后的数据量。
图6是卷管理表311的结构的说明图。卷管理表311是管理PVOL100、快照101和DSVOL102等卷的表。卷管理表311具有VOL#600、属性601、目录#602、映射#603、容量604和池#605。
VOL#600是识别卷的号码。属性601是按VOL#600识别的卷的类型,有PVOL、快照、DSVOL等。目录#是分配给按VOL#600识别的卷的目录表的集合的号码。
作为目录#,与该卷的容量相应地分配多个DSVOL102上的区域。例如,在图6中,在VOL#为0的PVOL,分配目录#为0、10、200的PVOL用的目录表的集合。此外,在VOL#为1的快照,分配目录#为1、5、20的快照用的目录表的集合。DSVOL102的目录#602为NULL。
映射#603是分配给按VOL#600识别的卷的映射表的集合的号码。拷贝了PVOL100的快照101的映射#与复写源的PVOL通用。例如,在图6中,在VOL#为0、1的各卷,分配映射#为2、5、10的映射表的集合。DSVOL102的映射#603为NULL。
容量604是按VOL#600识别的卷的容量。池#605是按VOL#600识别的卷分割出的池的号码。
图7是目录区域管理表312的结构的说明图。目录区域管理表312是管理DSVOL102上的各目录#的起始地址的表。目录区域管理表312具有目录#700和目录区域起始地址701。例如,在目录#为0的目录,确保有以同一DSVOL102上的地址50为起始地址的区域。
从将对象数据的PVOL/快照内地址除以1个目录表的可管理容量得到的商,求取该VOL/快照内的目录#的序列号。目录#700参照图6的目录#602从目录#的序列号来求取。
图8是映射区域管理表313的结构的说明图。映射区域管理表313是管理DSVOL102上的各映射#的起始地址的表。映射区域管理表313具有映射#800和映射区域起始地址801。
图9是目录区域分配表314的结构的说明图。目录区域分配表314是管理分配给DSVOL102上的目录区域起始地址900的各目录#的表,是目录区域管理表312的反向查询表。目录区域分配表314具有目录区域起始地址900和分配目录#901。
图10是映射区域分配表315的结构的说明图。映射区域分配表315是管理分配给DSVOL102上的映射区域起始地址1000的各映射#的表,是映射区域管理表313的反向查询表。映射区域分配表315具有映射区域起始地址1000和分配映射#1001。
图11是快照世代管理表316的结构的说明图。在快照世代管理表316中,按作为复制源的PVOL100的每个PVOL#管理快照的最新世代。快照世代管理表316具有PVOL#1100、最新世代#1101、世代#1102、快照生成时刻1103、快照#1104和状态1105。快照世代管理表316按每个PVOL#管理例如1024个世代(世代#=0~1023)。
在快照世代管理表316,按各PVOL#的每快照生成增加最新世代#,更新与最新世代#1101相应的快照生成时刻1103、快照#1104和状态1105。在状态1105中,PVOL的快照生成后,具有令对快照的I/O不可并且使PVOL与快照的数据同步的PAIR。此外,在状态1105中,具有不使PVOL与快照的数据同步的SUSPEND(分割)。
图12是表示VOL生成处理的处理顺序的流程图。VOL生成处理按照来自管理系统203的指示、通过卷生成程序303执行。
首先,在S1200中,卷生成程序303通过控制各DSVOL102-i的所有存储控制器210确认在各DSVOL102-i是否能够实现补足指定条件(卷的容量等)的PVOL的目录区域和映射区域的确保。卷生成程序303在S1200中判断能够实现区域确保的情况下(S1201:是(Yes))将处理过渡至S1202,在S1200判断为区域确保不能实现的情况下(S1201:否(No))结束VOL生成处理。
在S1202中,卷生成程序303决定要分配给在S1201中为可分配的该PVOL的目录区域的起始地址和分配目录#。卷生成程序303追记所决定的目录区域的起始地址和分配目录#而更新目录区域分配表314。
接着,在S1203中,卷生成程序303决定要分配给在S1201中为可分配的该PVOL的映射区域的起始地址和分配映射#。卷生成程序303追记所决定的映射区域的起始地址和分配映射#而更新映射区域分配表315。
接着,在S1204中,卷生成程序303将在S1202中更新了的目录区域分配表314的目录区域起始地址900的值作为目录区域起始地址701的值,将分配目录#901的值作为目录#700的值,更新目录区域管理表312。
接着,在S1205中,卷生成程序303将在S1203中更新了的映射区域分配表315的映射区域起始地址1000的值作为映射区域起始地址801的值,将分配映射#1001的值作为映射#800的值,更新映射区域管理表313。
接着,在S1205中,卷生成程序303将包含在本VOL生成处理中生成的属性=PVOL的目录#、映射#、容量和池#的卷信息追记至卷管理表311而进行更新。
图13是表示快照生成处理的处理顺序的流程图。快照生成处理按照来自管理系统203的指示、通过快照生成程序304执行。
首先,在S1300中,快照生成程序304接收作为快照生成对象的PVOL的复制源VOL的VOL#。接着,在S1301中,快照生成程序304判断在缓存存储器301是否有在S1300中收到的未向复制源VOL离台的脏数据。快照生成程序304在有未向复制源VOL离台的脏数据的情况下(S1301:是)将处理过渡至S1302,在没有脏数据的情况下(S1301:否)将处理过渡至S1303。在S1302中,快照生成程序304进行脏数据的追记处理,详细情况参照图14后述。
在S1303中,快照生成程序304从卷管理表311取得复制源VOL的容量和目录#。接着,在S1304中,快照生成程序304确认在DSVOL102是否能够确保作为复制源VOL的副本的快照(复制目的地)的目录区域。快照生成程序304在快照(复制目的地)的目录区域能够确保的情况下(S1305:是)将处理过渡至S1306,在不能确保的情况下(S1305:否)结束本快照生成处理。
在S1306中,快照生成程序304将在本快照生成处理中生成的包含属性=快照的目录#、映射#、容量和池#的卷信息追记至卷管理表311而进行更新。快照的映射#603的值是复制源PVOL的映射#的值的拷贝。
接着,在S1307中,快照生成程序304将所生成的快照的最新世代#1101增加+1,设定快照生成时刻1103、快照#1104(相当于卷管理表311的VOL#)、状态1105=SUSPEND来更新快照世代管理表316。
接着,在S1308中,快照生成程序304追记分配给在S1305成为可分配的该快照的目录区域的起始地址和分配目录#而更新目录区域分配表314。
接着,在S1309中,快照生成程序304将在S1308中更新民的目录区域分配表314的目录区域起始地址900的值作为目录区域起始地址701的值,将分配目录#901的值作为目录#700的值,更新目录区域管理表312。
接着,在S1310中,快照生成程序304对多个DSVOL102-i的各存储控制器210指示目录拷贝。接着,在1311中,快照生成程序304接受S1310的目录拷贝的指示,控制多个DSVOL102-i的各存储控制器210,将作为复制源VOL的PVOL的目录表103-i,通过并行处理拷贝至在S1308、S1309中确保的各DSVOL102-i的目录区域。在通过拷贝生成的目录表104-i被赋予新的目录#。
图14是表示追记处理的处理顺序的流程图。图14表示在图13的S1302、图16的S1604、图17的S1701、图18的S1802、图19的S1902、图23的S2102、图24的S2202中执行的各追记处理的详细情况。以下,作为在图13的S1302中执行的追记处理,将快照生成程序304作为处理主体进行说明。
另外,在图16的S1604中前端写程序306成为处理主体,在图17的S1701中后端写程序307成为处理主体,在图18的S1802中还原程序308成为处理主体,在图19的S1902中重新同步程序309成为处理主体,在图23的S2102中还原程序308成为处理主体,在图24的S2202中重新同步程序309成为处理主体。
首先,在S1400中,快照生成程序304确定脏数据。接着,在S1401中,快照生成程序304参照快照世代管理表316,判断PVOL是否具有SUSPEND状态的快照。快照生成程序304在不存在SUSPEND状态的快照的情况下(S1401:否)将处理过渡至S1404,在存在SUSPEND状态的快照的情况下(S1401:是)将处理过渡至S1402。
在S1402中,快照生成程序304判断与追记处理对象的脏数据的逻辑地址(LBA)对应的目录拷贝是否完成。快照生成程序304在目录拷贝完成的情况下(S1402:是)将处理过渡至S1404,在目录拷贝未完成的情况下(S1402:否)对该区域的目录信息进行排除拷贝(结束时拷贝)。排除拷贝(结束时拷贝)是指,在图13的S1311的拷贝处理中对未拷贝的区域进行追记处理的情况下,仅将追记处理对象的区域的目录信息精准(pinpoint)地拷贝的处理。
接着,在S1404中,快照生成程序304对在S1400中确定的脏数据进行压缩。接着,在S1405中,快照生成程序304将在S1404中压缩的压缩数据集拷贝至复制源VOL的追记区域。
接着,在S1406中,快照生成程序304在映射表105的各条目中的、未设定参照目的地地址(追记区域内地址)501的未使用的条目,保持在S1404中压缩了的数据的追记区域内的保存位置。即,将压缩数据的拷贝目的地地址设定为参照目的地地址(追记区域内地址)501。
接着,在S1407中,快照生成程序304在目录表103的各条目中,与该数据的逻辑地址(能够从主机访问的LBA)对应的条目,将在S1406中生成的映射信息的映射区域内地址500设定为参照目的地地址(映射区域内地址)401。
接着,在S1408中,快照生成程序304将在S1405中拷贝至追记区域的脏数据离台。
图15是表示读处理的处理顺序的流程图。读处理响应来自主机装置的读请求、通过读程序305执行。
首先,在S1500中,读程序305取得以来自服务器系统202的读请求为对象的数据的PVOL或快照内的地址。接着,在S1501中,读程序305判断读请求的对象数据是否缓存命中。读程序305在读请求的对象数据缓存命中的情况下(S1501:是)将处理过渡至S1505,在未缓存命中的情况下(S1501:否)将处理过渡至S1502。
在S1502中,读程序305参照目录表103、104,基于在S1500中取得的PVOL/快照内地址,取得参照目的地地址(映射区域内地址)401。读程序305在读请求的对象数据为PVOL100内的数据的情况下参照PVOL用的目录表103,在为快照101内的数据的情况下参照快照用的目录表104。
接着,在S1503中,读程序305参照映射表105,基于在S1502中取得的参照目的地地址(映射区域内地址)取得参照目的地地址(追记区域内地址)501。接着,在S1504中,读程序305将保存于在S1503确定的追记区域内地址的数据解压缩并且分级至缓存存储器。
接着,在S1505中,读程序305将在S1501中缓存命中的数据或在S1504分级的数据转发至主机装置。
图16是表示前端写处理(PVOL/快照通用)的处理顺序的流程图。前端写处理在从主机装置受理了对PVOL100或快照101的写请求的情况下,通过前端写程序306执行。
首先,在S1600中,前端写程序306判断来自主机装置的写请求的对象数据是否缓存命中。前端写程序306在写请求的对象数据缓存命中的情况下(S1600:是)将处理过渡至S1602,在未缓存命中的情况下(S1600:否)将处理过渡至S1601。在S1601中,前端写程序306在缓存存储器301确保缓存区。
在S1602中,前端写程序306判断在S1600中缓存命中的对象数据是否为脏数据。前端写程序306,在S1600中缓存命中的对象数据为脏数据的情况下(S1602:是)将处理过渡至S1603,在不是脏数据的情况下(S1602:否)将处理过渡至S1605。
在S1603中,前端写程序306判断在S1602中判断的脏数据的WR(WRight)世代#与该写请求的对象数据的世代#是否一致。WR世代#保持于缓存数据的管理信息(未图示)中。另外,该写请求的对象数据的世代#从图11的最新世代#1101取得。S1603防止在刚刚取得的快照的对象数据(脏数据)的追记处理未进行的期间内,就以该写请求的对象数据更新脏数据,将快照的数据写坏。前端写程序306在WR世代#与最新世代#一致的情况下(S1603:是)将处理过渡至S1605,在WR世代#与最新世代#不一致的情况下(S1603:否)将处理过渡至S1604。
在S1604中,前端写程序306执行参照图14说明的追记处理。通过S1604,将与最新世代#不一致的WR世代#的脏数据写入追记区域,从缓存存储器301离台。
在S1605中,前端写程序306向在S1601中确保的缓存区、或能够对需要进行追记处理的脏数据进行追记处理而再度生成脏数据的缓存区写入写请求的对象数据。
在S1606中,前端写程序306将向S1605中向缓存存储器301写入的缓存数据的WR世代#设定为在S1603中比较出的最新世代#。在S1607中,前端写程序306向主机装置回复正常响应(Good响应)。
图17是表示后端写处理的处理顺序的流程图。后端写处理是在未反映的数据(脏数据)在DSVOL102的追记区域106处于缓存存储器301上的情况下,将未反映的数据写入追记区域106的处理。后端写处理与前端处理同步或异步地进行。后端写处理通过后端写程序307执行。
首先,在S1700中,后端写程序307判断在缓存存储器301上是否有脏数据。后端写程序307,在缓存存储器301上有脏数据的情况下(S1700:是)将处理过渡至S1701,在没有脏数据的情况下(S1700:否)结束本后端写处理。在S1701,后端写程序307执行在图14说明的追记处理。
图18是表示实施例1的还原处理的处理顺序的流程图。还原处理按照来自管理系统203的还原(数据恢复)的指示、通过还原程序308执行。
首先,在S1800中,还原程序308从管理系统203接收还原目的地的PVOL#和还原源的快照#。接着,在S1801中,还原程序308判断在S1800中收到快照#的还原源快照中是否有脏数据。还原程序308在还原源快照中有脏数据的情况下(S1801:是)将处理过渡至S1802,在没有脏数据的情况下(S1801:否)将处理过渡至S1803。
在S1802中,还原程序308执行在图14说明的追记处理。
在S1803中,还原程序308从卷管理表311取得还原源快照的目录#和还原目的地PVOL的目录#。接着,在S1804中,还原程序308对多个DSVOL102-i的各存储控制器210指示在S1803中取得的还原源/目的地的目录拷贝。
接着,在S1805中,还原程序308通过各存储控制器210的并行处理,将在S1803中取得的还原源的快照的目录#的目录表104-i分别拷贝至还原目的地的PVOL的目录#的目录表103-i。
图19是表示实施例1的重新同步处理的处理顺序的流程图。重新同步处理按照管理系统203的重新同步(数据再同步)的指示、通过重新同步程序309执行。
首先,在S1900中,重新同步程序309从管理系统203接收重新同步目的地快照#和重新同步源PVOL#。接着,在S1901中,重新同步程序309判断在重新同步源PVOL是否有脏数据。重新同步程序309在重新同步源PVOL有脏数据的情况下(S1901:是)将处理过渡至S1902,在没有脏数据的情况下(S1901:否)将处理过渡至S1903。
在S1902中,重新同步程序309执行在图14说明的追记处理。
在S1903中,重新同步程序309从卷管理表311取得重新同步源PVOL的目录#和重新同步目的地快照的目录#。接着,在S1904中,重新同步程序309对多个DSVOL102-i的各存储控制器210指示在S1903中取得的目录拷贝。
接着,在S1905中,重新同步程序309通过各存储控制器210的并行处理,将在S1903中取得的重新同步源的PVOL的目录#的目录表103-i分别拷贝至重新同步目的地的快照的目录#的目录表104-i。
图20是表示PVOL/快照删除处理的处理顺序的流程图。PVOL/快照删除处理按照管理系统203的卷删除或快照删除的指示、通过PVOL/快照删除程序310执行。
首先,在S2000中,PVOL/快照删除程序310接收删除对象的PVOL#或快照#。接着,在S2001中,PVOL/快照删除程序310从卷管理表311取得删除对象的PVOL或快照的目录#和映射#。
接着,在S2002中,PVOL/快照删除程序310对控制分散配置有各目录表的各DSVOL102的各存储控制器210,指示删除对象的PVOL或快照的目录表的删除。
接着,在S2003中,PVOL/快照删除程序310从目录区域管理表312删除与在S2002中删除了的目录表相应的记录。接着,在S2004中,PVOL/快照删除程序310将与在S2003中从目录区域管理表312删除的记录对应的目录区域起始地址900的记录,从目录区域分配表314删除。
接着,在S2005中,PVOL/快照删除程序310判断是否能够进行映射区域删除(即,删除对象为没有快照的PVOL或有快照的PVOL单体)。PVOL/快照删除程序310在能够进行映射区域删除的情况下(S2005:是)将处理过渡至S2006,在不能进行映射区域删除的情况下(S2005:否)将处理过渡至S2009。
在S2006中,PVOL/快照删除程序310对控制分散配置有各映射表的各DSVOL102的各存储控制器210,指示删除对象的PVOL的映射表的删除。
接着,在S2007中,PVOL/快照删除程序310从映射区域管理表313删除与所删除的映射表相应的记录。接着,在S2008中,PVOL/快照删除程序310从映射区域分配表315删除与在S2007中从映射区域管理表313删除的记录对应的映射区域起始地址1000的记录。
接着,在S2009中,PVOL/快照删除程序310从卷管理表311删除与所删除的PVOL或快照相应的卷的记录。
接着,在S2010中,PVOL/快照删除程序310判断所删除的卷是否为快照。PVOL/快照删除程序310在所删除的卷为快照的情况下(S2010:是)将处理过渡至S2011,在所删除的卷为PVOL的情况下(S2010:否)结束本PVOL/快照删除处理。
在S2011中,PVOL/快照删除程序310将所删除的快照的记录从快照世代管理表316删除。此时,在快照世代管理表316中,所删除的快照为最新世代的情况下,以删除最新世代后的快照的下一新世代的快照为最新世代。
接着,参照图21和图22说明实施例1的效果。
在本实施例中,如图21所示那样,令元信息的树为作为第1层级的元信息的PVOL用的目录表103、和作为第2层级的元信息的PVOL与快照共用的映射表105的2级结构。PVOL用的目录表103是管理指向参照数据的元信息的指针的表。
在快照取得时,仅拷贝第1级的PVOL用的目录表103,生成快照用的目录表104。来自PVOL100的读出和写入基于目录表103和映射表105访问数据。此外,来自快照101的读出和写入基于目录表104和映射表105访问数据。由此,能够降低数据访问时的搜索的系统开销。
此外,在本实施例中,如图22所示那样,将PVOL用的目录表103按细的粒度在由各存储控制器210控制的多个DSVOL102分散配置。而且,在快照取得时,多个存储控制器210按在各个DSVOL102内分散配置的PVOL用的目录表103单位进行表拷贝。由于通过该并行处理进行的拷贝,能够缩短快照生成时间。进一步,即使I/O负载偏向特定的PVOL/快照而该PVOL/快照成为高负载,也由于对多个存储控制器210进行负载分散的而能够有效利用多个存储控制器资源。
由此,根据本实施例,能够无损于对存储系统要求的功能的性能地,同时实现I/O性能和存储系统操作性能。此外,即使存在I/O负载的偏差,也不会限制1个存储控制器的性能,能够充分享受多控制器的优点。此外,能够不担心存储系统的性能下降和容量地生成所需的卷的副本。
[实施例2]
实施例2与实施例1相比较,还原处理和重新同步处理不同。按实施例2的还原处理,不拷贝目录表,而以使还原目的地的目录#与还原源的目录#通用的方式更新卷管理表(图6),在还原源/目的地参照相同的目录区域。
此外,在实施例2的重新同步处理中,不拷贝目录表,而以使重新同步目的地的目录#与重新同步源的目录#通用的方式更新卷管理表(图6),在还原源/目的地参照相同的目录区域。
图23是表示实施例2的还原处理的处理顺序的流程图。图23中的S2100、S2101、S2102、S2103与图18中的S1800、S1801、S1802、S1803分别相同。
接着S2103在S2104中,还原程序308在卷管理表311中用还原源快照的目录#更新还原目的地PVOL的目录#。在图6的例子中,用还原源的VOL#=1的属性=快照的目录#(1,5,20),更新还原目的地的VOL#=0的属性=PVOL的目录#602。接着,在S2105中,还原程序308将快照世代管理表316的还原源快照的状态1105变更为PAIR。
图24是表示实施例2的重新同步处理的处理顺序的流程图。图24中的S2200、S2201、S2202、S2203与图19中的S1900、S1901、S1902、S1903分别相同。
接着S2203在S2204中,重新同步程序309在卷管理表311用重新同步源PVOL的目录#更新重新同步目的地快照的目录#。在图6的例子中,用重新同步源的VOL#=0的属性=PVOL的目录#(0,10,200),更新重新同步目的地的VOL#=1的属性=快照的目录#602。接着,在S2205中,重新同步程序309将快照世代管理表316的重新同步目的地快照的状态1105变更为PAIR。
这样,在实施例2中,与实施例1的还原处理和重新同步处理相比,不进行目录表的拷贝而仅参照目的地的变更,具有处理量少的优点。
另外,本发明并不限定于上述的实施例,而包括各种各样的变形例。例如,上述的实施例为了将本发明说明得容易明白而进行了详细的说明,但是并不一定限定于包括所说明的所有结构。此外,并不限定于该结构的删除,还能够进行结构的替换和追加。
此外,上述的各结构、功能、处理部、处理单元等例如也可以通过利用集成电路进行设计等、利用硬件实现其一部分或全部。此外,本发明还能够通过实现实施例的功能的软件的程序代码实现。在这种情况下,向计算机提供记录有程序代码的记录介质,该计算机具备的处理器读出记录介质中保存的程序代码。在这种情况下,从记录介质读出的程序代码自身实现所述的实施例的功能,该程序代码自体和存储有该程序代码的记录介质构成本发明。作为用于供给这样的程序代码的记录介质,例如使用软盘、CD-ROM、DVD-ROM、硬盘、SSD(Solid State Drive:固态硬盘)、光盘、光磁盘、CD-R、磁带、非易失性的存储卡、ROM等。
此外,实现本实施例记载的功能的程序代码例如能够以汇编程序、C/C++、perl、Shell、PHP、Java(注册商标)等宽范围的程序或脚本语言安装。
在上述的实施例中,对于控制线和信息线,仅展示在说明上被认为需要的部分,并不一定展示制品上的所有的控制线和信息线。实际上也可以认为几乎所有的结构相互连接。
附图标记的说明
100:计算机系统;103、103-i、104、104-i:目录表;105、105-i:映射表;106、106-i:追记区域;201:存储系统;202:服务器系统;203:管理系统;210:存储控制器。
Claims (8)
1.一种具有多个控制器并能够生成作为逻辑卷的副本的快照的存储系统,其特征在于:
所述控制器被分配有要负责的所述逻辑卷或所述快照,并被分配有保存所述逻辑卷或所述快照的数据的追记区域和保存追记到追记区域的数据的元信息的元信息区域,
所述控制器包括:
将所述逻辑卷的数据追记到追记区域的数据控制部;和
将由所述数据控制部追记到所述追记区域的数据的元信息保存至元信息区域的数据管理部,
所述元信息由将所述逻辑卷中的数据的位置信息与所述追记区域中的所述数据的位置信息关联起来的第1层级的元信息和第2层级的元信息构成,所述第1层级的元信息是将所述逻辑卷中的数据的位置信息与关于该数据的所述第2层级的元信息的保存位置关联起来的信息,所述第2层级的元信息是管理所述追记区域中的所述数据的位置信息的信息,
所述数据管理部在生成所述逻辑卷的快照时,在与复制源相同的元信息区域内,生成保存在被分配给多个控制器的多个元信息区域中的所述第1层级的元信息的副本,
与生成了所述第1层级的元信息的副本的元信息区域相关的控制器的数据控制部,
基于按照所述第1层级的元信息所参照的所述第2层级的元信息,从所述逻辑卷访问所述追记区域的数据,
基于按照所述第1层级的元信息的副本所参照的所述第2层级的元信息,从所述快照访问所述追记区域的数据。
2.如权利要求1所述的存储系统,其特征在于:
保存所述逻辑卷的数据或所述快照的数据的所述追记区域、以及保存所述逻辑卷的数据的元信息或所述快照的数据的元信息的所述元信息区域被分配给多个数据存储卷,
所述第1层级的元信息和所述第2层级的元信息在多个所述数据存储卷的各个中分散配置。
3.如权利要求2所述的存储系统,其特征在于:
所述第1层级的元信息以所述逻辑卷的逻辑数据的粒度为单位,在多个所述数据存储卷中分散配置。
4.如权利要求1所述的存储系统,其特征在于:
所述数据管理部在从所述快照还原所述逻辑卷时,用所述第1层级的元信息的副本更新所述第1层级的元信息。
5.如权利要求1所述的存储系统,其特征在于:
所述数据管理部在将所述逻辑卷与所述快照重新同步时,用所述第1层级的元信息更新所述第1层级的元信息的副本。
6.如权利要求1所述的存储系统,其特征在于:
所述数据管理部在从所述快照还原所述逻辑卷时,在按每个卷管理所述第1层级的元信息的管理信息中,用与所述快照对应的所述第1层级的元信息的识别信息,来更新与所述逻辑卷对应的所述第1层级的元信息的识别信息。
7.如权利要求1所述的存储系统,其特征在于:
所述数据管理部在将所述逻辑卷与所述快照重新同步时,在按每个卷管理所述第1层级的元信息的管理信息中,用与所述逻辑卷对应的所述第1层级的元信息的识别信息,来更新与所述快照对应的所述第1层级的元信息的识别信息。
8.一种存储系统中的数据复制方法,其中所述存储系统具有多个控制器,能够生成作为逻辑卷的副本的快照,所述数据复制方法的特征在于:
所述控制器被分配要负责的所述逻辑卷或所述快照,并被分配保存所述逻辑卷或所述快照的数据的追记区域和保存追记到追记区域的数据的元信息的元信息区域,
所述控制器包括:
将所述逻辑卷的数据追记到追记区域的数据控制部;和
将由所述数据控制部追记到所述追记区域的数据的元信息保存至元信息区域的数据管理部,
所述元信息由将所述逻辑卷中的数据的位置信息与所述追记区域中的所述数据的位置信息关联起来的第1层级的元信息和第2层级的元信息构成,所述第1层级的元信息是将所述逻辑卷中的数据的位置信息与关于该数据的所述第2层级的元信息的保存位置关联起来的信息,所述第2层级的元信息是管理所述追记区域中的所述数据的位置信息的信息,
所述数据管理部在生成所述逻辑卷的快照时,在与复制源相同的元信息区域内,生成保存在被分配给多个控制器的多个元信息区域中的所述第1层级的元信息的副本,
与生成了所述第1层级的元信息的副本的元信息区域相关的控制器的数据控制部,
基于按照所述第1层级的元信息所参照的所述第2层级的元信息,从所述逻辑卷访问所述追记区域的数据,
基于按照所述第1层级的元信息的副本所参照的所述第2层级的元信息,从所述快照访问所述追记区域的数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020130440A JP7121079B2 (ja) | 2020-07-31 | 2020-07-31 | ストレージシステム及びストレージシステムにおけるデータ複製方法 |
JP2020-130440 | 2020-07-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114063895A true CN114063895A (zh) | 2022-02-18 |
CN114063895B CN114063895B (zh) | 2023-07-28 |
Family
ID=75164337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110215909.9A Active CN114063895B (zh) | 2020-07-31 | 2021-02-26 | 存储系统和存储系统中的数据复制方法 |
Country Status (3)
Country | Link |
---|---|
US (3) | US10963485B1 (zh) |
JP (1) | JP7121079B2 (zh) |
CN (1) | CN114063895B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7429214B2 (ja) | 2021-10-07 | 2024-02-07 | 株式会社日立製作所 | ストレージシステム及びストレージシステムにおけるデータ複製方法 |
JP7457740B2 (ja) | 2022-03-03 | 2024-03-28 | 株式会社日立製作所 | ストレージシステム及びその制御方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040030846A1 (en) * | 2002-08-06 | 2004-02-12 | Philippe Armangau | Data storage system having meta bit maps for indicating whether data blocks are invalid in snapshot copies |
US20100131727A1 (en) * | 2008-11-21 | 2010-05-27 | Yoshiaki Eguchi | Storage system and method implementing online volume and snapshot with performance/failure independence and high capacity efficiency |
US20130054528A1 (en) * | 2011-08-31 | 2013-02-28 | Hitachi, Ltd. | Computer system and data access control method |
CN103392164A (zh) * | 2011-05-31 | 2013-11-13 | 株式会社日立制作所 | 存储系统和存储控制方法 |
US20150134616A1 (en) * | 2013-11-12 | 2015-05-14 | Netapp, Inc. | Snapshots and clones of volumes in a storage system |
CN105612491A (zh) * | 2013-09-16 | 2016-05-25 | 网络装置公司 | 分布式存储架构中基于具有密集树结构的元数据的盘区的管理 |
US10664358B1 (en) * | 2017-04-28 | 2020-05-26 | EMC IP Holding Company LLC | Ensure volume consistency for online system checkpoint |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5715297B2 (ja) | 2011-11-25 | 2015-05-07 | 株式会社日立製作所 | ストレージ装置及びその制御方法 |
US9646039B2 (en) | 2013-01-10 | 2017-05-09 | Pure Storage, Inc. | Snapshots in a storage system |
US10380026B2 (en) * | 2014-09-04 | 2019-08-13 | Sandisk Technologies Llc | Generalized storage virtualization interface |
JP6579149B2 (ja) | 2017-04-20 | 2019-09-25 | 富士通株式会社 | ストレージ制御装置、及びストレージ制御プログラム |
JP6429963B2 (ja) | 2017-09-14 | 2018-11-28 | 株式会社日立製作所 | ストレージ装置及びストレージ装置の制御方法 |
JP6840113B2 (ja) | 2018-09-20 | 2021-03-10 | 株式会社日立製作所 | ストレージコントローラ及びストレージ制御方法 |
JP2020080130A (ja) | 2018-11-14 | 2020-05-28 | 株式会社日立製作所 | ボリューム管理装置、ボリューム管理方法、及びボリューム管理プログラム |
US11301330B2 (en) * | 2019-01-30 | 2022-04-12 | EMC IP Holding Company, LLC | System and method for restoring metadata pages |
-
2020
- 2020-07-31 JP JP2020130440A patent/JP7121079B2/ja active Active
- 2020-09-18 US US17/025,197 patent/US10963485B1/en active Active
-
2021
- 2021-02-26 CN CN202110215909.9A patent/CN114063895B/zh active Active
- 2021-03-25 US US17/212,250 patent/US11704337B2/en active Active
-
2023
- 2023-06-07 US US18/206,649 patent/US20230350916A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040030846A1 (en) * | 2002-08-06 | 2004-02-12 | Philippe Armangau | Data storage system having meta bit maps for indicating whether data blocks are invalid in snapshot copies |
US20100131727A1 (en) * | 2008-11-21 | 2010-05-27 | Yoshiaki Eguchi | Storage system and method implementing online volume and snapshot with performance/failure independence and high capacity efficiency |
CN103392164A (zh) * | 2011-05-31 | 2013-11-13 | 株式会社日立制作所 | 存储系统和存储控制方法 |
US20130054528A1 (en) * | 2011-08-31 | 2013-02-28 | Hitachi, Ltd. | Computer system and data access control method |
CN105612491A (zh) * | 2013-09-16 | 2016-05-25 | 网络装置公司 | 分布式存储架构中基于具有密集树结构的元数据的盘区的管理 |
US20150134616A1 (en) * | 2013-11-12 | 2015-05-14 | Netapp, Inc. | Snapshots and clones of volumes in a storage system |
US10664358B1 (en) * | 2017-04-28 | 2020-05-26 | EMC IP Holding Company LLC | Ensure volume consistency for online system checkpoint |
Non-Patent Citations (1)
Title |
---|
秦升等: "基于块设备多版本快照的设计与实现", 计算机工程, vol. 35, no. 22 * |
Also Published As
Publication number | Publication date |
---|---|
US10963485B1 (en) | 2021-03-30 |
US20220035833A1 (en) | 2022-02-03 |
JP2022026812A (ja) | 2022-02-10 |
CN114063895B (zh) | 2023-07-28 |
US11704337B2 (en) | 2023-07-18 |
US20230350916A1 (en) | 2023-11-02 |
JP7121079B2 (ja) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10152381B1 (en) | Using storage defragmentation function to facilitate system checkpoint | |
US7072916B1 (en) | Instant snapshot | |
US9343153B2 (en) | De-duplication in flash memory module | |
JP5066209B2 (ja) | コントローラ、データ記憶装置、及びプログラム | |
US8055864B2 (en) | Efficient hierarchical storage management of a file system with snapshots | |
US6636879B1 (en) | Space allocation in a write anywhere file system | |
US20080229003A1 (en) | Storage system and method of preventing deterioration of write performance in storage system | |
CN107924291B (zh) | 存储系统 | |
US6636941B1 (en) | Enhanced stable disk storage | |
CN114063895B (zh) | 存储系统和存储系统中的数据复制方法 | |
CN113868192A (zh) | 一种数据存储设备、方法与分布式数据存储系统 | |
US6629203B1 (en) | Alternating shadow directories in pairs of storage spaces for data storage | |
JP2018181202A (ja) | ストレージ制御装置、ストレージ制御方法及びストレージ制御プログラム | |
US11288006B2 (en) | Storage system and volume copying method where changes to address conversion table is rolled back | |
CN110134551B (zh) | 一种持续数据保护方法及装置 | |
US20180307615A1 (en) | Storage control apparatus and storage control method | |
JP7309025B2 (ja) | ストレージシステム及びストレージシステムにおけるデータ複製方法 | |
JP2004094429A (ja) | ディスクアレイ装置及び同装置におけるレイドレベル変更方法 | |
US11947811B2 (en) | Storage system and data replication method in storage system | |
CN112052217B (zh) | 快照实现方法及装置 | |
US11663080B1 (en) | Techniques for performing live rebuild in storage systems that operate a direct write mode | |
JP2022099948A (ja) | ストレージシステムおよびストレージシステムにおけるデータ量削減方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |