CN111124266A - 数据管理方法、设备和计算机程序产品 - Google Patents

数据管理方法、设备和计算机程序产品 Download PDF

Info

Publication number
CN111124266A
CN111124266A CN201811290949.4A CN201811290949A CN111124266A CN 111124266 A CN111124266 A CN 111124266A CN 201811290949 A CN201811290949 A CN 201811290949A CN 111124266 A CN111124266 A CN 111124266A
Authority
CN
China
Prior art keywords
data
raid
block
disk
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811290949.4A
Other languages
English (en)
Other versions
CN111124266B (zh
Inventor
韩耕
徐鑫磊
奉昌玉
高健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN201811290949.4A priority Critical patent/CN111124266B/zh
Priority to US16/582,615 priority patent/US11449400B2/en
Publication of CN111124266A publication Critical patent/CN111124266A/zh
Application granted granted Critical
Publication of CN111124266B publication Critical patent/CN111124266B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1469Backup restoration techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/064Management of blocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/82Solving problems relating to consistency

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及一种用于存储设备的数据管理方法、设备和计算机程序产品。该方法包括:响应于接收到向存储设备写入数据的请求,获取与写入数据的请求相关联的独立冗余磁盘阵列(RAID)区段的元数据,RAID区段是基于存储设备的多个磁盘所包括的多个磁盘块而构建的;基于元数据,确定允许数据写入的RAID区段的磁盘块,以用于写数据;以及将元数据中包括的与允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关联的元数据页面,以用于存储设备的数据恢复,映射单元用于映射存储设备的物理空间与虚拟逻辑空间,降级数目指示RAID区段所包括的磁盘块由正常变为降级的次数。

Description

数据管理方法、设备和计算机程序产品
技术领域
本公开涉及数据的管理,更具体地,本公开涉及数据管理方法、设备和计算机程序产品。
背景技术
为了更好地管理和优化存储设备的数据存储性能,会将存储设备所包括的磁盘分成若干个磁盘块(slice),然后基于多个磁盘的多个磁盘块绑定成RAID区段(或称为Uber或extents),以及将存储设备池化为磁盘块池(slice pool)。在传统的存储设备的数据管理方案中,不支持针对基于磁盘块区段的增量数据恢复或重建,因此,当磁盘所包括的磁盘块发生故障时,需要将故障磁盘的整个数据全部重建到磁盘区段池中新替换的磁盘或相关联的RAID区段的各磁盘块上。
由于传统的存储设备的数据管理方案中,不支持针对基于磁盘块区段的增量数据恢复或重建,因此,即便是仅是个别磁盘块发生故障,或者磁盘被错误拨出后又很快被插回,期间仅有少量数据被更新,都需要进行全部数据的恢复。这不仅降低了存储设备的数据恢复的效率,而且导致了数据恢复过程中存在大量的、不必要的数据读写,不利于延长磁盘的使用寿命。
发明内容
本公开提供一种用于存储设备的数据管理方法、设备和计算机程序产品,能够有效地提高存储设备的数据恢复效率,避免数据恢复过程中不必要的数据读写。
根据本公开的第一方面,提供了一种用于存储设备的数据管理方法。该方法包括:响应于接收到向存储设备写入数据的请求,获取与写入数据的请求相关联的独立冗余磁盘阵列(RAID)区段的元数据,RAID区段是基于存储设备的多个磁盘所包括的多个磁盘块而构建的;基于元数据,确定允许数据写入的RAID区段的磁盘块,以用于写数据;以及将元数据中包括的与允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关的元数据页面,以用于存储设备的数据恢复,映射单元用于映射存储设备的物理空间与虚拟逻辑空间,降级数目指示RAID区段所包括的磁盘块由正常变为降级的次数。
根据本发明的第二方面,还提供一种数据管理设备。该设备包括:存储器,被配置为存储一个或多个程序;处理单元,耦合至该存储器并且被配置为执行该一个或多个程序使该管理设备执行多个动作,该动作包括:响应于接收到向存储设备写入数据的请求,获取与写入数据的请求相关联的独立冗余磁盘阵列(RAID)区段的元数据,RAID区段是基于存储设备的多个磁盘所包括的多个磁盘块而构建的;基于元数据,确定允许数据写入的RAID区段的磁盘块,以用于写数据;以及将元数据中包括的与允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关的元数据页面,以用于存储设备的数据恢复,映射单元用于映射存储设备的物理空间与虚拟逻辑空间,降级数目指示RAID区段所包括的磁盘块由正常变为降级的次数。
根据本公开的第三方面,还提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,该机器可执行指令在被执行时使机器执行根据第一方面的方法的步骤。
提供发明内容部分是为了简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或主要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了根据本公开的实施例的数据存储设备100的架构图;
图2示出了根据本公开的实施例的映射单元元数据层保存的元数据页面200的示意图;
图3示出了根据本公开的实施例的用于存储设备的数据管理方法300的流程图;
图4示出了根据本公开的实施例的用于存储设备的数据恢复方法400的流程图;
图5示出了根据本公开的实施例的用于从存储设备读取数据的方法500的流程图;以及
图6示意性示出了适于用来实现本公开实施例的电子设备600的框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上文所描述的,传统的存储设备的数据管理方案中,因无法获知磁盘块区段所包括磁盘块的物理状态以及数据情况,因此,不支持针对基于磁盘块区段的增量数据恢复或重建,因此,当磁盘所包括的磁盘块发生故障时,需要将故障磁盘的整个数据全部重建到磁盘区段池中新替换的磁盘或相关联的RAID区段的各磁盘块上。,因此,即便仅是个别磁盘块发生故障,或者故障磁盘块仅涉及少量数据被更新,都需要进行全部数据的恢复。这显著地降低了存储设备的数据恢复效率,而且导致大量的不必要的数据读写,不利于延长磁盘的使用寿命。
为了至少部分地解决上述问题以及其他潜在问题中的一个或者多个,本公开的示例实施例提出了一种用于存储设备的数据管理方法。该方法包括:响应于接收到向存储设备写入数据的请求,获取与写入数据的请求相关联的独立冗余磁盘阵列(RAID)区段的元数据,RAID区段是基于存储设备的多个磁盘所包括的多个磁盘块而构建的;基于元数据,确定允许数据写入的RAID区段的磁盘块,以用于写数据;以及将元数据中包括的与允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关联的元数据页面,以用于存储设备的数据恢复,映射单元用于映射存储设备的物理空间与虚拟逻辑空间,降级数目指示RAID区段所包括的磁盘块由正常变为降级的次数。
在上述方案中,通过获取指示RAID区段的各个磁盘块的状态的元数据,以及基于该元数据确定允许数据写入的RAID区段的磁盘块,能够实现根据磁盘块的物理状态来确定适于写入数据的RAID区段的磁盘块;以及通过在向存储设备写入数据的过程中,将元数据中包括的与允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关联的元数据页面,能够实现通过匹配RAID区段和元数据页面中的对应标识和降级数目,来确定对应相应磁盘块的写入是否是完整的数据写入过程,以便确定该磁盘块是否存在需要恢复的有效数据,进而确定匹配的数据恢复方式。
图1示出了根据本公开的实施例的数据存储设备100的架构图。应当理解,如图1所示的设备100的结构和功能仅用于示例的目的,而不暗示对于本公开的范围的任何限制。本公开的实施例可以被体现在不同的结构和/或功能中。
如图1所示,设备100中包括磁盘块池110、多个层(Tier)120至130、映射单元140、事务处理高速缓冲存储器(TxCache)142、记录器(Logger)144、RAID数据库146、任务框架单元148和逻辑空间单元150。在一些实施例中,设备100例如是EMC的Trident RAID。
关于磁盘块池110,其用于管理存储设备中的所有磁盘。磁盘块池110包括多个RAID恢复组(raid resilience set,简称RRS),例如RRS1、RRS2、RRSM-1、RRSM。每个RRS包括多个(例如25个)磁盘。例如,RRS1包括磁盘11、磁盘12至磁盘1N。每个RRS是一个故障域,在不同的RRS之间,故障被物理隔离。其意味着如果一个RRS中的磁盘出现故障,该故障将不会影响其他RRS的可靠性。每一个磁盘被分割成大小相等(例如4GB)的多个磁盘块。因此,磁盘块池110实质上是磁盘块的集合。在一些实施例中,在磁盘块池110中可以创建多个RAID区段。每个RAID区段类似于小的传统的RAID。例如,如果RAID的类型是4+1的RAID-5,为了创建一个RAID区段,可以从不同的磁盘分配5个空闲的磁盘块,并将这5个磁盘块绑定成一个RAID区段。前提条件是,一个RAID区段的所有磁盘块应该来自同一个RRS。
关于层120至130,其用作由其他元件所使用的物理地址空间。每一个层都是由若干个RAID区段绑定而成。对于每个层,可以根据保存在其中的数据类型应用不同的RAID策略。但是一个层中的所有绑定的RAID区段应该具有相同的RAID策略,即具有相同的RAID宽度和RAID类型。可以根据需求扩展层,换言之,可以动态分配新的RAID区段并将其添加到某个层。对于各层,可以将采用2路镜像RAID或者3路镜像RAID。如果一个层上的数据需要更高的保护级别,将采用3路镜像。否则采用2路镜像。
在一些实施例中,设备100例如包括:RAID数据库层120、启动层122、映射单元用户数据层124、映射单元元数据数据层126、记录数据层128、记录元数据层130,如图1所示。
其中,RAID数据库层120比较特殊,其仅包括一个RAID区段,并且不暴露给其他元件,仅有磁盘块池110内部使用。
启动层122、映射单元用户数据层124和映射单元元数据数据层126用于由映射单元140所使用。其中,启动层122可以配置成3路镜像。在启动层122中,映射单元140保存一些将在启动路径上加载的关键配置。映射单元用户数据层124可以配置为奇偶校验RAID(例如,RAID 5或RAID6)。一般而言,RAID类型和宽度取决于系统中的磁盘类型和磁盘号。在一些实施例中,Trident RAID仅支持4/8/16+1RAID 5或1/8/16+2RAID 6。所有主机用户数据都将保存在映射单元用户数据层124中。映射单元元数据层126可以配置为2路镜像。在映射单元用户数据层126中,映射单元140将存储其元数据,例如将元数据存储成B+树节点的方式。
记录数据层128和记录元数据层130用于暴露给记录器单元144。
映射单元140是设备100的核心组件,映射单元140用于映射虚拟逻辑地址空间与所述RAID的物理地址空间。映射单元140将每个与其进行数据交互的层视作为扁平线性物理地址空间,以及向逻辑空间单元150显示为单一扁平线性逻辑地址空间。逻辑地址空间可以大到8EB。在一些实施例中,映射单元140利用绑定的3级B+树、以4K页面的粒度来维护的逻辑地址和物理地址之间的映射。如前文所述,映射单元140使用以下三个层:启动层122、映射单元用户数据层124和映射单元元数据层126。当映射单元140处理IO时,它将向相应层生成读IO和写IO。映射单元140在基于记录器的模式下工作,这意味着当映射单元140将主机数据写入用户数据层时,它将首先聚合足够的页面,然后将它们打包成2MB大小的物理磁盘块(PLB),并将PLB写入RAID。在成功保存PLB后,映射单元140将更新B+树,以记住页面的新位置。
关于事务处理高速缓冲存储器(TxCache)142,其用于在存储器中提供高速缓冲功能,以用于逻辑空间和物理空间之间的映射的加速。事务处理高速缓冲存储器142为映射单元140提供事务处理操作功能。当提交事务时,如果该事务修改了某些页面,为了防止数据丢失,它将通过记录器将所有修改保留在暴露给RAID的特殊层中,如RAID数据库层120。在一些实施例中,记录数据层128和记录元数据层130是在名为Mt_Carmel的一些特殊磁盘之上创建的。这种磁盘的性能几乎与DRAM相同,优于SSD。
关于记录器(Logger)144,其用于使用和管理记录数据层128和记录元数据层130的空间。事务处理高速缓冲存储器142将使用记录器144公开的API来加载和保留脏页面。
关于逻辑空间单元150,其用于使用和管理由映射单元140所暴露的扁平线性逻辑地址空间,例如8EB。逻辑空间单元150用于为主机创建和暴露卷。
如上文提及的,映射单元元数据层126可以采用2路镜像。映射单元在映射单元元数据层126保存其元数据页面,例如以B+树节点页面、VLB描述符页面、PLB描述页面等方式保存其元数据页面。
图2示出了根据本公开的实施例的映射单元元数据层保存的元数据页面200的示意图。所有元数据页面例如是4k大小,并且共享相同的磁盘页面布局。如图2所示,元数据页面200包括:页面的头部202、用于每种元数据页面的设置204、和校验和206。
为了使设备100支持增量数据恢复模式。本公开实施例在创建RAID区段时,构建与被创建的RAID区段相关联的两部分数据。两部分数据分别是RAID区段的位置信息(Ubergeometry)和RAID区段元数据。
关于RAID区段的位置信息,其指示该RAID区段的位置。在一些实施例中,可以用数组的方式记录RAID区段所包括的每一个磁盘块的位置。例如,记录该磁盘块来源于哪个磁盘的第几个磁盘块。
关于RAID区段元数据,其例如包括:RAID区段的标识(uber->magic_number)、RAID区段的降级数目(uber->generation_number)、RAID区段的块状态位图(uber->rebuild_logging_bitmap)、RAID区段的块重建位图(rebuild_bitmap)和RAID区段的新块位图(uber->newdisk_bitmap)。在一些实施例中,响应于在存储设备100中创建或绑定RAID区段,初始化与RAID区段相关联的元数据;以及基于与RAID区段相关联的事件,更新RAID区段元数据。
关于RAID区段的标识(uber->magic_number),其用于指示RAID区段的磁盘块是否包含RAID级别的有效数据。在一些实施例中,响应于在创建、分配或绑定一个RAID区段时,随机生成与该RAID区段相关联的标识magic_number,该标识例如为随机数。响应于检测到数据写I/O,会将RAID区段的标识和降级数目复制到与映射单元140相关联的元数据页面。因此,如果磁盘块包含经完整写数据的有效数据,则映射单元140的关联元数据页面中存储的对应标识与RAID区段的标识相一致,即blk_hdr->magic_number应与uber->magic_number相一致。因而通过比较RAID区段的标识magic_number这一元数据,可以识别RAID区段的磁盘块中是否包含有效数据。
关于RAID区段的降级数目(uber->generation_number),其响应于RAID区段的磁盘块的状态变为降级而被更新。例如在创建、分配或绑定一个RAID区段时,降级数目被初始化为0,然后,响应于确认子RAID区段的磁盘块的状态从“正常”变为“降级”,使得该降级数目加1。但是,当在磁盘块的重建还未完成之前,磁盘块再次变为降级,或者RAID区段中超过两个的磁盘块同时变为降级,不对降级数目加1。
关于RAID区段的块状态位图(uber->rebuild_logging_bitmap),其指示RAID区段的各个磁盘块的物理状态是否正常。当RAID区段的一个位置上的磁盘块发生故障时,不会立即替换新的磁盘块以进行重建,而是当磁盘块被错误移除或者正在升级驱动器固件(在这种情况下,磁盘将离线一段时间并且在固件升级完成后再次在线),推延一预定时间(例如5分钟)之后,再进行新磁盘块替换与重建。在上述到替换新磁盘块之间的预定时间窗(例如5分钟)中,RAID区段的块状态位图中与降级磁盘块对应位置的位将被设置为“1”,以指示该位置的磁盘块暂时不可用。
以下表1具体示意性示出了RAID区段经初始化后,其所包括的磁盘块D1的关联磁盘曾被移走时对应的元数据。从表1数据可知,RAID区段的标识(uber->magic_number)为0x12345678,RAID区段包括磁盘块D0和D1。其中磁盘块D1关联的磁盘曾经被移走超过5分钟,即磁盘块D1的状态从“正常”变为“降级”,因此降级数目(uber->generation_number)为1。块状态位图(uber->rebuild_logging_bitmap)对应于D1的位置被设置为1,指示磁盘块D1暂时不可用。
表1
Figure BDA0001850013280000091
关于RAID区段的块重建位图(uber->rebuild_bitmap),其指示所述RAID区段的各个磁盘块是否正在被重建。一旦被移除的磁盘块被插回或替换为新的磁盘块,RAID区段的块重建位图中相应的位将被设置为“1”以指示对应该位置的磁盘块待重建或正在被重建。一旦该位置的磁盘块的重建被完成,被设置为“1”的位将被设置为“0”。
以下表2具体示意性示出了RAID区段所包括的磁盘块D1的关联磁盘曾被错误移走,在5分钟之内其又被插回时对应的元数据。从表2数据可知,其中磁盘块D1关联的磁盘在被移走5分钟之内又被插回,块状态位图(uber->rebuild_logging_bitmap)对应于D1的位置恢复0,同时,块重建位图(uber->rebuild_bitmap)对应于D1的位置被设置为1,其指示所述RAID区段的磁盘块D1待重建或正在被重建。
表2
Figure BDA0001850013280000101
关于RAID区段的新块位图(uber->newdisk_bitmap),其指示所述RAID区段的各个磁盘块是否是新的块。当某一位置被替换上新的磁盘块,RAID区段的新块位图的中相应的位将被设置为“1”以指示对应该位置的磁盘块是新的磁盘块,以及其上的所有数据在重建完成之前是无效的。一旦该位置的磁盘块的重建被完成,被设置为“1”的位将被设置为“0”。
在上述技术方案中,通过创建和获取与被创建的RAID区段相关联的元数据,来指示RAID区段的各个磁盘块的状态和数据情况,能够实现基于元数据获知当前情况的数据恢复方式是适于执行增量数据恢复还是适于执行全部数据恢复。
以下表3具体示意性示出了构建RAID区段的位置信息和RAID区段元数据的处理逻辑的实现。需要强调的是,后续处理逻辑的实现仅仅是示例,无意以任何方式限制本公开的范围。
表3
Figure BDA0001850013280000111
图3示出了根据本公开的实施例的用于存储设备的数据管理方法300的流程图。在图3所示的实施例中,各个动作例如由处理器执行。该处理器可以集成在前文提及的存储设备之中,也可以包括在与存储设备分立的管理设备中。方法300还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框302,响应于接收到向存储设备写入数据的请求,获取与写入数据的请求相关联的独立冗余磁盘阵列(RAID)区段的元数据,RAID区段是基于存储设备的多个磁盘所包括的多个磁盘块而构建的。关于RAID区段的元数据,在一些实施例中,响应于在存储设备中创建或绑定RAID区段,初始化与RAID区段相关联的元数据;以及基于与RAID区段相关联的事件,更新元数据。在一些实施例中,与RAID区段相关联的元数据还包括:与RAID区段相关联的块状态位图、块重建位图和新块位图,其中块状态位图指示RAID区段的各个磁盘块的物理状态是否正常,块重建位图指示RAID区段的各个磁盘块是否正在被重建,新块位图指示RAID区段的各个磁盘块是否是新的磁盘块。
在框304,基于元数据,确定允许数据写入的RAID区段的磁盘块,以用于写数据。
在一些实施例中,确定允许数据写入的RAID区段的磁盘块包括:基于元数据包括的块状态位图,确定允许数据写入的RAID区段的磁盘块,块状态位图指示RAID区段的各个磁盘块的物理状态是否正常。在一些实施例中,确定允许数据写入的RAID区段的磁盘块包括:排除元数据中的块状态位图(uber->rebuild_logging_bitmap)为“1”对应位置的磁盘块,以及基于块状态位图(uber->rebuild_logging_bitmap)中不为“1”的位置产生写数据IO位置列表。
在框306,将元数据中包括的与允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关联的元数据页面,以用于存储设备的数据恢复,映射单元用于映射存储设备的物理空间与虚拟逻辑空间,降级数目指示RAID区段所包括的磁盘块由正常变为降级的次数。例如,在数据写入过程中,将RAID区段的元数据中的标识(uber->magic_number)和降级数目(uber->generation_number)复制到映射单元;映射单元再将所获取的uber->magic_number和uber->generation_number存储至关于磁盘设置的映射单元元数据页面的头部,以用于准备每个磁盘块的块头数据。
关于标识,在一些实施例中,其例如是响应于创建RAID区段而生成的随机数。在一些实施例中,降级数目指示RAID区段所包括的磁盘块由正常变为降级的次数包括:响应于确认RAID区段的磁盘块从正常变为降级,使得降级数目加1;响应于以下任一项条件满足:在磁盘块的重建还未完成之前,磁盘块再次变为降级,以及RAID区段中超过两个的磁盘块同时变为降级,不对降级数目加1。
在一些实施例中,映射单元元数据页面的头部至少包括:标识blk_hdr->magic_number和降级数目blk_hdr->generation_number。如果映射单元元数据页面中关联的磁盘块中包括有效数据,则元数据页面的头部中的对应标识blk_hdr->magic_number将与关联的RAID区段的标识uber->magic_number相匹配。映射单元元数据页面中的降级数目blk_hdr->generation_number可以进一步用于识别是否可以避免对磁盘块进行重建。
在上述方案中,通过基于RAID区段的元数据来确定允许数据写入的RAID区段的磁盘块以及在向存储设备写入数据的过程中将元数据中包括的与允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关联的元数据页面,使得可以基于RAID区段内磁盘块的状态来确定写入位置,而且可以通过匹配RAID区段和映射单元元数据页面中的对应标识和降级数目,来确定数据恢复时磁盘块是否存在有效数据以及确定匹配的数据恢复方式。
在一些实施例中,方法300还包括:确认是否针对允许数据写入的RAID区段的磁盘块都成功写入;以及响应于确认针对允许数据写入的RAID区段的磁盘块没有都成功写入,重新获取与写入数据的请求相关联的元数据,以用于基于重新获取的元数据确定允许数据写入的RAID区段的磁盘块。例如,当存在磁盘块没有被成功写入时,可能的原因例如是,在数据写入的过程中,对应的磁盘块例如从正常变为降级。这种情况下,需要基于重新获取的元数据中的块状态位图(uber->rebuild_logging_bitmap),再次确定允许数据写入的RAID区段的磁盘块。
在一些实施例中,方法300还包括进一步用于存储设备的数据恢复方法。图4示出了根据本公开的实施例的用于存储设备的数据恢复方法400的流程图。在图4所示的实施例中,各个动作例如由处理器执行。该处理器可以集成在前文提及的存储设备之中,也可以包括在与存储设备分立的管理设备中。方法400还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框402,响应于检测到关于存储设备的数据恢复请求,获取与数据恢复请求相关联的RAID区段的元数据。
在框404,基于元数据包括的以下至少一项:块状态位图、块重建位图和新块位图,确定需读取数据的RAID区段的磁盘块,块状态位图指示RAID区段的各个磁盘块的物理状态是否正常,块重建位图指示RAID区段的各个磁盘块是否正在被重建,新块位图指示RAID区段的各个磁盘块是否是新的磁盘块。在一些实施例中,确定需读取数据的RAID区段的磁盘块包括:响应于以下任一项条件满足条件:块状态位图指示相关磁盘块的物理状态不正常,块重建位图指示相关磁盘块未完成重建,以及新块位图指示相关磁盘块为新磁盘块,将相关磁盘块确定为不需要读取数据的RAID区段的磁盘块。换言之,当以上任一条件满足时,表明对应磁盘块的状态不适于读取用于恢复的数据。通过采用上述手段,能够实现基于磁盘块的状态快速地确定需要被读取用于数据恢复的磁盘块,利于提高数据恢复效率。
在一些实施例中,基于元数据页面中的与需读取数据的RAID区段对应的降级数目的大小,确定用于存储设备的数据恢复的源数据。
在框406,基于与需读取数据的RAID区段相关联的元数据中的标识和降级数目与元数据页面中的对应标识和降级数目之间的比较结果,确定存储设备的数据恢复方式。由于在数据写入过程中,RAID区段的元数据中的标识和降级数目被复制至与映射单元相关联的元数据页面中。因此,通过比较元数据与元数据页面中对应标识和降级数目是否匹配,可以识别所确定的需读取的磁盘块上的数据是否为经历完整写入的数据,以便匹配地设置数据恢复方式。例如,在一些实施例中,响应于确认与需读取数据的RAID区段相关联的标识与元数据页面中的对应标识不一致,确认需读取数据的RAID区段的磁盘块未包括用于恢复数据的有效数据。
在一些实施例中,确定存储设备的数据恢复方式包括:响应于确认与需读取数据的RAID区段相关联的标识与元数据页面中存储的对应标识相一致,进一步比较与需读取数据的RAID区段相关联的降级数目和元数据页面中的对应降级数目;以及基于关于降级数目的比较的结果,确定存储设备的数据恢复方式是执行增量数据恢复还是执行全部数据恢复。在一些实施例中,确定存储设备的数据恢复方式包括:确定与需读取数据的RAID区段相关联的降级数目与元数据页面中对应降级数目之间的差值;获取关于增量数据恢复的阈值;响应于以下任一条件满足:差值小于阈值,以及与需读取数据的RAID区段相关联的新块位图指示磁盘块为新的磁盘块,确定存储设备的数据恢复方式是执行全部数据恢复;以及响应于差值大于或等于阈值,确定存储设备的数据恢复方式是执行增量数据恢复。在一些实施例中,上述阈值是基于与需读取数据的RAID区段相关联的块重建位图和块状态位图而确定的。例如,对与需读取数据的RAID区段相关联的块重建位图(uber->rebuild_bitmap)和块状态位图(uber->rebuild_logging_bitmap)执行异或运算,基于该异或运算结果中所包括的“1”的个数,确定的关于增量数据恢复的阈值。
以下表4具体示意性示出了上述确定恢复方式的实施例的处理逻辑的实现。需要理解,后续处理逻辑的实现仅仅是示例,无意以任何方式限制本公开的范围。
表4
Figure BDA0001850013280000151
以下结合表5具体示意性示出的RAID区段中的元数据和元数据页面中存储的对应数据来举例说明如何确定数据恢复的方式。在该RAID区段中包括磁盘块D0、D1和D2。
表5
Figure BDA0001850013280000161
在表5所示的数据中,块状态位图(uber->rebuild_logging_bitmap)为001,表明磁盘块D2暂不可用,块重建位图(uber->rebuild_bitmap)为010,表明磁盘块D1正在被重建。因此确定磁盘块D0为需读取的磁盘块,从磁盘块D0读取数据。随后,确定与磁盘块D0相关RAID区段的标识(uber->magic_number)与元数据页面中存储的对应标识(MAG#)相一致,都为0x12345678,则进一步比较RAID区段的降级数目(uber->generation_number)和元数据页面中的对应降级数目(GEN#)。根据表5数据可知,RAID区段的降级数目为2,元数据页面中对应降级数目为1,则RAID区段的降级数目(uber->generation_number)与元数据页面中对应降级数目(GEN#)之间的差值x=2-1=1。阈值d是基于RAID区段相关联的块重建位图(rebuild_bitmap)和块状态位图(uber->rebuild_logging_bitmap)异或结果中包括的“1”的个数而确定的。根据表5数据可知,d=2。可见,差值x小于阈值d,因此,确定数据恢复方式是执行全部数据恢复。
以下结合表6具体示意性示出的RAID区段中的元数据和元数据页面中存储的对应数据来举例说明如何确定数据恢复的方式。在该RAID区段中包括磁盘块D0和D1。
表6
Figure BDA0001850013280000171
在表6所示的数据中,块状态位图(uber->rebuild_logging_bitmap)为00,表明磁盘块D0可用,块重建位图(uber->rebuild_bitmap)为01,表明磁盘块D1正在被重建。因此。确定磁盘块D0为需读取的磁盘块,从磁盘块D0读取数据。随后,RAID区段的降级数目(uber->generation_number)和元数据页面中的对应降级数目(GEN#)相一致。RAID区段的降级数目为1,元数据页面中对应降级数目为0,则RAID区段相关联的降级数目(uber->generation_number)与元数据页面中对应降级数目(GEN#)之间的差值x=1。阈值d=1。差值x等于阈值d,确定数据恢复的方式是执行增量数据恢复。
在上述方案中,通过基于元数据中块状态位图、块重建位图和新块位图中至少一项,确定需读取数据的RAID区段的磁盘块,以及基于RAID区段内磁盘块的状态来确定写入位置,而且通过分别比较RAID区段和与映射单元关联元数据页面中的对应标识和降级数目,来确定数据恢复方式。使得能够实现仅针对物理状态正常并且存在有效数据的磁盘块进行读取以用于数据恢复,即实现了数据恢复模式与磁盘块的状态和有效数据情况相匹配,进而提高了数据恢复的效率,有效地避免了不必要的数据读写,利于延长磁盘使用寿命。
在一些实施例中,方法300还包括进一步用于从存储设备读取数据的方法。图5示出了根据本公开的实施例的用于从存储设备读取数据的方法500的流程图。在图5所示的实施例中,各个动作例如由处理器执行。该处理器可以集成在前文提及的存储设备之中,也可以包括在与存储设备分立的管理设备中。方法500还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框502,响应于接收到从存储设备读取数据的请求,获取与读取数据的请求相关联的RAID区段的元数据。
在框504,基于元数据中的以下至少一项:块状态位图、块重建位图和新块位图,确定允许读取数据的RAID区段的磁盘块。在一些实施例中,其中确定允许读取数据的RAID区段的磁盘块包括:响应于以下任一项条件满足条件:块状态位图指示相关磁盘块的物理状态不正常,块重建位图指示相关磁盘块未完成重建,以及新块位图指示相关磁盘块为新磁盘块,将相关磁盘块确定为不被允许读取数据的RAID区段的磁盘块。例如,将块状态位图中“1”所对应位置的磁盘块、块重建位图中“1”所对应位置的磁盘块、以及块重建位图中“1”所对应位置的磁盘块确定为不被允许读取数据的位置的磁盘块;基于不被允许读取数据的位置之外位置,产生有效读取IO位置的磁盘块列表。
在框506,在允许读取数据的RAID区段的磁盘块中,选择读取的磁盘块,以用于读取数据。在一些实施例中,选择读取的磁盘块包括:基于允许读取数据的RAID区段的各磁盘块的负载,在允许读取数据的RAID区段的多个磁盘块中,选择读取的磁盘块。在一些实施例中,将读数据IO发送给所选择的单一的读取的磁盘块。
图6示意性示出了适于用来实现本公开实施例的电子设备600的框图。设备600可以用于实现执行图3-5所示的用于存储设备的数据管理方法300、数据恢复方法400、数据读取方法500的系统。如图6所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元601执行上文所描述的各个方法和处理,例如执行用于存储设备的数据管理方法300、数据恢复方法400、数据读取方法500的系统。例如,在一些实施例中,方法300、400、500可被实现为计算机软件程序,其被存储于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由CPU 601执行时,可以执行上文描述的方法300、400、500的一个或多个操作。备选地,在其他实施例中,CPU 601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法300、400、500的一个或多个动作。
需要进一步说明的是,本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,该编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,该模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
以上该仅为本公开的可选实施例,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等效替换、改进等,均应包含在本公开的保护范围之内。

Claims (31)

1.一种用于存储设备的数据管理方法,包括:
响应于接收到向所述存储设备写入数据的请求,获取与所述写入数据的请求相关联的独立冗余磁盘阵列(RAID)区段的元数据,所述RAID区段是基于所述存储设备的多个磁盘所包括的多个磁盘块而构建的;
基于所述元数据,确定允许数据写入的RAID区段的磁盘块,以用于写数据;以及
将所述元数据中包括的与所述允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关联的元数据页面,以用于所述存储设备的数据恢复,所述映射单元用于映射所述存储设备的物理空间与虚拟逻辑空间,所述降级数目指示所述RAID区段所包括的磁盘块由正常变为降级的次数。
2.根据权利要求1所述的方法,还包括:
确认是否针对所述允许数据写入的RAID区段的磁盘块都成功写入;以及
响应于确认针对所述允许数据写入的RAID区段的磁盘块没有都成功写入,重新获取与所述写入数据的请求相关联的元数据,以用于基于重新获取的所述元数据确定所述允许数据写入的RAID区段的磁盘块。
3.根据权利要求1所述的方法,其中确定允许数据写入的RAID区段的磁盘块包括:
基于所述元数据包括的块状态位图,确定允许数据写入的RAID区段的磁盘块,所述块状态位图指示所述RAID区段的各个磁盘块的物理状态是否正常。
4.根据权利要求1所述的方法,其中降级数目指示所述RAID区段所包括的磁盘块由正常变为降级的次数包括:
响应于确认所述RAID区段的所述磁盘块从正常变为降级,使得所述降级数目加1;
响应于以下任一项条件满足:
在磁盘块的重建还未完成之前,所述磁盘块再次变为降级,以及
所述RAID区段中超过两个的磁盘块同时变为降级,
不对所述降级数目加1。
5.根据权利要求1所述的方法,还包括:
响应于在所述存储设备中创建或绑定RAID区段,初始化与所述RAID区段相关联的所述元数据;以及
基于与所述RAID区段相关联的事件,更新所述元数据。
6.根据权利要求1所述的方法,还包括:
响应于检测到关于所述存储设备的数据恢复请求,获取与所述数据恢复请求相关联的RAID区段的元数据
基于所述元数据包括的以下至少一项:块状态位图、块重建位图和新块位图,确定需读取数据的RAID区段的磁盘块,所述块状态位图指示所述RAID区段的各个磁盘块的物理状态是否正常,所述块重建位图指示所述RAID区段的各个磁盘块是否正在被重建,所述新块位图指示所述RAID区段的各个磁盘块是否是新的磁盘块;以及
基于与所述需读取数据的RAID区段相关联的元数据中的标识和降级数目与所述元数据页面中的对应标识和降级数目之间的比较结果,确定所述存储设备的数据恢复方式。
7.根据权利要求6所述的方法,还包括:
基于所述元数据页面中的与所述需读取数据的RAID区段对应的所述降级数目的大小,确定用于所述存储设备的数据恢复的源数据。
8.根据权利要求6所述的方法,其中确定需读取数据的RAID区段的磁盘块包括:
响应于以下任一项条件满足条件:
所述块状态位图指示相关磁盘块的物理状态不正常,
所述块重建位图指示相关磁盘块未完成重建,以及
所述新块位图指示相关磁盘块为新的磁盘块,
将所述相关磁盘块确定为不需要读取数据的RAID区段的磁盘块。
9.根据权利要求6所述的方法,其中确定所述存储设备的数据恢复方式包括:
响应于确认与所述需读取数据的RAID区段相关联的标识与所述元数据页面中存储的对应标识相一致,比较与所述需读取数据的RAID区段相关联的降级数目和所述元数据页面中的对应降级数目;以及
基于关于所述降级数目的所述比较的结果,确定所述存储设备的数据恢复方式是执行增量数据恢复还是执行全部数据恢复。
10.根据权利要求9所述的方法,其中确定所述存储设备的数据恢复方式包括:
确定与所述需读取数据的RAID区段相关联的所述降级数目与所述元数据页面中所述对应降级数目之间的差值;
获取关于增量数据恢复的阈值;
响应于以下任一条件满足:
所述差值小于所述阈值,以及
与所述需读取数据的RAID区段相关联的新块位图指示所述磁盘块为新的磁盘块,
确定所述存储设备的数据恢复方式是执行所述全部数据恢复;以及
响应于所述差值大于或等于所述阈值,确定所述存储设备的数据恢复方式是执行所述增量数据恢复。
11.根据权利要求10所述的方法,其中所述阈值是基于与所述需读取数据的RAID区段相关联的所述块重建位图和所述块状态位图而确定的。
12.根据权利要求9所述的方法,还包括:
响应于确认与所述需读取数据的RAID区段相关联的所述标识与所述元数据页面中的所述对应标识不一致,确认所述需读取数据的RAID区段的磁盘块未包括用于恢复数据的有效数据。
13.根据权利要求1所述的方法,还包括:
响应于接收到从所述存储设备读取数据的请求,获取与所述读取数据的请求相关联的RAID区段的元数据;
基于所述元数据包括的以下至少一项:块状态位图、块重建位图和新块位图,确定允许读取数据的RAID区段的磁盘块,所述块状态位图指示所述RAID区段的各个磁盘块的物理状态是否正常,所述块重建位图指示所述RAID区段的各个磁盘块是否正在被重建,所述新块位图指示所述RAID区段的各个磁盘块是否是新的块;以及
在所述允许读取数据的RAID区段的磁盘块中,选择读取的磁盘块,以用于读取数据。
14.根据权利要求13所述的方法,其中确定允许读取数据的RAID区段的磁盘块包括:
响应于以下任一项条件满足条件:
所述块状态位图指示相关磁盘块的物理状态不正常,
所述块重建位图指示相关磁盘块未完成重建,以及
所述新块位图指示相关磁盘块为新磁盘块,
将所述相关磁盘块确定为不被允许读取数据的RAID区段的磁盘块。
15.根据权利要求13所述的方法,其中选择读取的磁盘块包括:
基于所述允许读取数据的RAID区段的各磁盘块的负载,在所述允许读取数据的RAID区段的多个磁盘块中,选择所述读取的磁盘块。
16.一种数据管理设备,包括:
存储器,被配置为存储一个或多个程序;
处理单元,耦合至所述存储器并且被配置为执行所述一个或多个程序使所述管理设备执行多个动作,所述动作包括:
响应于接收到向所述存储设备写入数据的请求,获取与所述写入数据的请求相关联的独立冗余磁盘阵列(RAID)区段的元数据,所述RAID区段是基于所述存储设备的多个磁盘所包括的多个磁盘块而构建的;
基于所述元数据,确定允许数据写入的RAID区段的磁盘块,以用于写数据;以及
将所述元数据中包括的与所述允许数据写入的RAID区段相关联的标识和降级数目复制至与映射单元相关联的元数据页面,以用于所述存储设备的数据恢复,所述映射单元用于映射所述存储设备的物理空间与虚拟逻辑空间,所述降级数目指示所述RAID区段所包括的磁盘块由正常变为降级的次数。
17.根据权利要求16所述的设备,所述动作还包括:
确认是否针对所述允许数据写入的RAID区段的磁盘块都成功写入;以及
响应于确认针对所述允许数据写入的RAID区段的磁盘块没有都成功写入,重新获取与所述写入数据的请求相关联的元数据,以用于基于重新获取的所述元数据确定所述允许数据写入的RAID区段的磁盘块。
18.根据权利要求16所述的设备,其中确定允许数据写入的RAID区段的磁盘块包括:
基于所述元数据包括的块状态位图,确定允许数据写入的RAID区段的磁盘块,所述块状态位图指示所述RAID区段的各个磁盘块的物理状态是否正常。
19.根据权利要求16所述的设备,其中降级数目指示所述RAID区段所包括的磁盘块由正常变为降级的次数包括:
响应于确认所述RAID区段的所述磁盘块从正常变为降级,使得所述降级数目加1;
响应于以下任一项条件满足:
在磁盘块的重建还未完成之前,所述磁盘块再次变为降级,以及
所述RAID区段中超过两个的磁盘块同时变为降级,
不对所述降级数目加1。
20.根据权利要求16所述的设备,所述动作还包括:
响应于在所述存储设备中创建或绑定RAID区段,初始化与所述RAID区段相关联的所述元数据;以及
基于与所述RAID区段相关联的事件,更新所述。
21.根据权利要求16所述的设备,所述动作还包括:
响应于检测到关于所述存储设备的数据恢复请求,获取与所述数据恢复请求相关联的RAID区段的元数据;
基于所述元数据包括的以下至少一项:块状态位图、块重建位图和新块位图,确定需读取数据的RAID区段的磁盘块,所述块状态位图指示所述RAID区段的各个磁盘块的物理状态是否正常,所述块重建位图指示所述RAID区段的各个磁盘块是否正在被重建,所述新块位图指示所述RAID区段的各个磁盘块是否是新的磁盘块;以及
基于与所述需读取数据的RAID区段相关联的元数据中的标识和降级数目与所述元数据页面中的对应标识和降级数目之间的比较结果,确定所述存储设备的数据恢复方式。
22.根据权利要求21所述的设备,所述动作还包括:
基于所述元数据页面中的与所述需读取数据的RAID区段对应的所述降级数目的大小,确定用于所述存储设备的数据恢复的源数据。
23.根据权利要求21所述的设备,其中确定需读取数据的RAID区段的磁盘块包括:
响应于以下任一项条件满足条件:
所述块状态位图指示相关磁盘块的物理状态不正常,
所述块重建位图指示相关磁盘块未完成重建,以及
所述新块位图指示相关磁盘块为新的磁盘块,
将所述相关磁盘块确定为不需要读取数据的RAID区段的磁盘块。
24.根据权利要求21所述的设备,其中确定所述存储设备的数据恢复方式包括:
响应于确认与所述需读取数据的RAID区段相关联的标识与所述元数据页面中存储的对应标识相一致,比较与所述需读取数据的RAID区段相关联的降级数目和所述元数据页面中的对应降级数目;以及
基于关于所述降级数目的所述比较的结果,确定所述存储设备的数据恢复方式是执行增量数据恢复还是执行全部数据恢复。
25.根据权利要求21所述的设备,其中确定所述存储设备的数据恢复方式包括:
确定与所述需读取数据的RAID区段相关联的所述降级数目与所述元数据页面中所述对应降级数目之间的差值;
获取关于增量数据恢复的阈值;
响应于以下任一条件满足:
所述差值小于所述阈值,以及
与所述需读取数据的RAID区段相关联的新块位图指示所述磁盘块为新的磁盘块,
确定所述存储设备的数据恢复方式是执行所述全部数据恢复;以及
响应于所述差值大于或等于所述阈值,确定所述存储设备的数据恢复方式是执行所述增量数据恢复。
26.根据权利要求25所述的设备,其中所述阈值是基于与所述需读取数据的RAID区段相关联的所述块重建位图和所述块状态位图而确定的。
27.根据权利要求21所述的设备,所述动作还包括:
响应于确认与所述需读取数据的RAID区段相关联的所述标识与所述元数据页面中的所述对应标识不一致,确认所述需读取数据的RAID区段的磁盘块未包括用于恢复数据的有效数据。
28.根据权利要求16所述的设备,所述动作还包括:
响应于接收到从所述存储设备读取数据的请求,获取与所述读取数据的请求相关联的RAID区段的元数据;
基于所述元数据包括的以下至少一项:块状态位图、块重建位图和新块位图,确定允许读取数据的RAID区段的磁盘块,所述块状态位图指示所述RAID区段的各个磁盘块的物理状态是否正常,所述块重建位图指示所述RAID区段的各个磁盘块是否正在被重建,所述新块位图指示所述RAID区段的各个磁盘块是否是新的块;以及
在所述允许读取数据的RAID区段的磁盘块中,选择读取的磁盘块,以用于读取数据。
29.根据权利要求28所述的设备,其中确定允许读取数据的RAID区段的磁盘块包括:
响应于以下任一项条件满足条件:
所述块状态位图指示相关磁盘块的物理状态不正常,
所述块重建位图指示相关磁盘块未完成重建,以及
所述新块位图指示相关磁盘块为新磁盘块,
将所述相关磁盘块确定为不被允许读取数据的RAID区段的磁盘块。
30.根据权利要求28所述的设备,其中选择读取的磁盘块包括:
基于所述允许读取数据的RAID区段的各磁盘块的负载,在所述允许读取数据的RAID区段的多个磁盘块中,选择所述读取的磁盘块。
31.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1-16中任一项所述的方法的步骤。
CN201811290949.4A 2018-10-31 2018-10-31 数据管理方法、设备和计算机程序产品 Active CN111124266B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811290949.4A CN111124266B (zh) 2018-10-31 2018-10-31 数据管理方法、设备和计算机程序产品
US16/582,615 US11449400B2 (en) 2018-10-31 2019-09-25 Method, device and program product for managing data of storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811290949.4A CN111124266B (zh) 2018-10-31 2018-10-31 数据管理方法、设备和计算机程序产品

Publications (2)

Publication Number Publication Date
CN111124266A true CN111124266A (zh) 2020-05-08
CN111124266B CN111124266B (zh) 2023-09-29

Family

ID=70326781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811290949.4A Active CN111124266B (zh) 2018-10-31 2018-10-31 数据管理方法、设备和计算机程序产品

Country Status (2)

Country Link
US (1) US11449400B2 (zh)
CN (1) CN111124266B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108733311B (zh) * 2017-04-17 2021-09-10 伊姆西Ip控股有限责任公司 用于管理存储系统的方法和设备
US11169746B2 (en) * 2018-06-19 2021-11-09 Weka.IO LTD Expanding a distributed storage system
US11074213B2 (en) * 2019-06-29 2021-07-27 Intel Corporation Apparatuses, methods, and systems for vector processor architecture having an array of identical circuit blocks
US11663080B1 (en) * 2022-01-20 2023-05-30 Dell Products L.P. Techniques for performing live rebuild in storage systems that operate a direct write mode
CN114546272B (zh) * 2022-02-18 2024-04-26 山东云海国创云计算装备产业创新中心有限公司 快速通用的raid降级为raid5的方法、系统、设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102147713A (zh) * 2011-02-18 2011-08-10 杭州宏杉科技有限公司 一种网络存储系统的管理方法及装置
CN103645997A (zh) * 2013-12-26 2014-03-19 深圳市迪菲特科技股份有限公司 一种数据保护的方法与系统
US20160246669A1 (en) * 2014-02-18 2016-08-25 International Business Machines Corporation Preemptive relocation of failing data
US20160266984A1 (en) * 2015-03-11 2016-09-15 International Business Machines Corporation Using duplicated data to enhance data security in raid environments
CN106557266A (zh) * 2015-09-25 2017-04-05 伊姆西公司 用于独立磁盘冗余阵列raid的方法和装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9256381B1 (en) 2011-09-29 2016-02-09 Emc Corporation Managing degraded storage elements in data storage systems
US9367405B1 (en) 2013-03-14 2016-06-14 Emc Corporation Managing software errors in storage systems
US9448735B1 (en) 2013-12-31 2016-09-20 Emc Corporation Managing storage device rebuild in data storage systems
US9367395B1 (en) 2014-03-31 2016-06-14 Emc Corporation Managing data inconsistencies in storage systems
US10073621B1 (en) 2016-03-31 2018-09-11 EMC IP Holding Company LLC Managing storage device mappings in storage systems
US10365983B1 (en) 2017-04-27 2019-07-30 EMC IP Holding Company LLC Repairing raid systems at per-stripe granularity
CN109725824A (zh) * 2017-10-27 2019-05-07 伊姆西Ip控股有限责任公司 用于向存储系统中的盘阵列写入数据的方法和设备
CN111124251B (zh) * 2018-10-30 2023-08-29 伊姆西Ip控股有限责任公司 用于i/o控制的方法、装置以及计算机可读介质
CN111857560A (zh) 2019-04-30 2020-10-30 伊姆西Ip控股有限责任公司 用于管理数据的方法、设备和计算机程序产品
US11269738B2 (en) 2019-10-31 2022-03-08 EMC IP Holding Company, LLC System and method for fast rebuild of metadata tier
US11275518B2 (en) 2019-11-01 2022-03-15 EMC IP Holding Company, LLC System and method for implementing heterogeneous media types with raid
US11314580B2 (en) 2020-04-30 2022-04-26 EMC IP Holding Company LLC Generating recommendations for initiating recovery of a fault domain representing logical address space of a storage system
US11232043B2 (en) 2020-04-30 2022-01-25 EMC IP Holding Company LLC Mapping virtual block addresses to portions of a logical address space that point to the virtual block addresses
US11256678B2 (en) 2020-06-30 2022-02-22 EMC IP Holding Company LLC Reconstruction of links between logical pages in a storage system
US11099940B1 (en) 2020-06-30 2021-08-24 EMC IP Holding Company LLC Reconstruction of links to orphaned logical pages in a storage system
US11061770B1 (en) 2020-06-30 2021-07-13 EMC IP Holding Company LLC Reconstruction of logical pages in a storage system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102147713A (zh) * 2011-02-18 2011-08-10 杭州宏杉科技有限公司 一种网络存储系统的管理方法及装置
CN103645997A (zh) * 2013-12-26 2014-03-19 深圳市迪菲特科技股份有限公司 一种数据保护的方法与系统
US20160246669A1 (en) * 2014-02-18 2016-08-25 International Business Machines Corporation Preemptive relocation of failing data
US20160266984A1 (en) * 2015-03-11 2016-09-15 International Business Machines Corporation Using duplicated data to enhance data security in raid environments
CN106557266A (zh) * 2015-09-25 2017-04-05 伊姆西公司 用于独立磁盘冗余阵列raid的方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
那文武等: "BW-netRAID:一种后端集中冗余管理的网络RAID系统", 《计算机学报》 *
那文武等: "BW-netRAID:一种后端集中冗余管理的网络RAID系统", 《计算机学报》, no. 05, 15 May 2011 (2011-05-15) *

Also Published As

Publication number Publication date
CN111124266B (zh) 2023-09-29
US20200133809A1 (en) 2020-04-30
US11449400B2 (en) 2022-09-20

Similar Documents

Publication Publication Date Title
CN109725822B (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN111124266B (zh) 数据管理方法、设备和计算机程序产品
US10977124B2 (en) Distributed storage system, data storage method, and software program
CN108733518B (zh) 用于管理存储系统的方法、设备和计算机可读介质
CN110413205B (zh) 用于向磁盘阵列进行写入的方法、设备和计算机可读存储介质
CN104598162A (zh) 用于跨存储设备写入数据的方法和系统
JP2016530637A (ja) Raidパリティストライプ再構成
US11297137B2 (en) Method and apparatus for performing simple storage service seamless migration using index objects
US11321202B2 (en) Recovering storage devices in a storage array having errors
US11080149B2 (en) Restore current version of a track from a non-volatile storage into a new location in cache
CN110058787B (zh) 用于写入数据的方法、设备和计算机程序产品
US10901646B2 (en) Update of RAID array parity
US11516287B2 (en) Method and apparatus for performing simple storage service seamless migration using index objects
CN113377569A (zh) 用于恢复数据的方法、设备和计算机程序产品
US10282253B2 (en) Resilient data storage and retrieval
CN113535073B (zh) 管理存储单元的方法、电子设备和计算机可读存储介质
US11163642B2 (en) Methods, devices and computer readable medium for managing a redundant array of independent disks
US10866901B2 (en) Invalidating CKD data tracks prior to unpinning, wherein upon destaging invalid track image from cache to a track of data on storage drive, the track of data on the storage drive is unpinned which enables destages of data from the cache to the track of data on the storage drive going forward
CN113391945A (zh) 用于存储管理的方法、电子设备以及计算机程序产品
CN113391937A (zh) 用于存储管理的方法、电子设备以及计算机程序产品
CN113641298A (zh) 数据存储方法、设备和计算机程序产品
CN115202561A (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN116954479A (zh) 用于raid的数据访问方法、电子设备和计算机程序产品
CN113590016A (zh) 用于管理存储盘的方法、电子设备和计算机程序产品
CN114594900A (zh) 存储管理的方法、设备和计算机程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant