CN110413208A - 用于管理存储系统的方法、设备和计算机程序产品 - Google Patents

用于管理存储系统的方法、设备和计算机程序产品 Download PDF

Info

Publication number
CN110413208A
CN110413208A CN201810400532.2A CN201810400532A CN110413208A CN 110413208 A CN110413208 A CN 110413208A CN 201810400532 A CN201810400532 A CN 201810400532A CN 110413208 A CN110413208 A CN 110413208A
Authority
CN
China
Prior art keywords
storage
equipment
data
storage equipment
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810400532.2A
Other languages
English (en)
Other versions
CN110413208B (zh
Inventor
高健
董继炳
徐鑫磊
韩耕
康剑斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN201810400532.2A priority Critical patent/CN110413208B/zh
Priority to US16/212,237 priority patent/US10929230B2/en
Publication of CN110413208A publication Critical patent/CN110413208A/zh
Application granted granted Critical
Publication of CN110413208B publication Critical patent/CN110413208B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1092Rebuilding, e.g. when physically replacing a failing disk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1088Reconstruction on already foreseen single or plurality of spare disks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1464Management of the backup or restore process for networked environments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1032Reliability improvement, data loss prevention, degraded operation etc
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/26Using a specific storage system architecture
    • G06F2212/261Storage comprising a plurality of storage devices
    • G06F2212/262Storage comprising a plurality of storage devices configured as RAID
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7201Logical to physical mapping or translation of blocks or pages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • G06F3/0649Lifecycle management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Hardware Redundancy (AREA)
  • Retry When Errors Occur (AREA)

Abstract

本公开涉及一种用于管理存储系统的方法、设备和计算机程序产。存储系统包括多个存储设备中的至少一部分存储设备,多个存储设备中的相应存储设备中包括第一部分和第二部分,第一部分用于存储数据以及第二部分被预留用于存储系统的重建。提供了一种管理存储系统的方法,该方法包括:确定至少一部分存储设备中的存储设备中出现故障;基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复故障存储设备中的第一部分中的数据;从多个存储设备中的正常存储设备中选择一组存储设备;以及向选择的一组存储设备中的第二部分写入恢复的数据。由此,可以提高存储系统的重建的速度,进而提高整个存储系统的性能。

Description

用于管理存储系统的方法、设备和计算机程序产品
技术领域
本公开的各实现涉及存储管理,更具体地,涉及用于管理存储系统(例如,独立磁盘冗余阵列(Redundant Array of Independent Disks,RAID))的方法、设备和计算机程序产品。
背景技术
随着数据存储技术的发展,各种数据存储设备已经能够向用户提供越来越高的数据存储能力,并且数据访问速度也有了很大程度的提高。在提高数据存储能力的同时,用户对于数据可靠性和存储系统的响应时间也提供了越来越高的需求。目前,已经开发出了基于冗余磁盘阵列的多种数据存储系统来提高数据的可靠性。当存储系统中的一个或者多个磁盘出现故障时,可以向存储系统中加入后备磁盘。可以从其他正常操作的磁盘上的数据来重建出故障磁盘中的数据,并将重建的数据写入后备磁盘。
将会理解,在上述重建过程中,需要向后备磁盘写入大量输入。由于后备磁盘本身带宽的限制,将会导致重建需要持续较长时间。进一步,在重建期间对于存储系统的正常读写访问将会受到影响。由于此时存储系统处于降级(degraded)状态,还需要额外的操作来确保存储系统中数据的可靠性。随着存储系统中的磁盘的容量的增大,重建时间的提高导致上述问题将变得愈发严重。因而,如何以更为方便并且有效的方式来实现存储系统的重建,成为一个技术难题。
发明内容
因而,期望能够开发并实现一种以更为有效的方式来管理存储系统的技术方案。期望该技术方案能够与现有的存储系统相兼容,并且通过改造现有存储系统的各种配置,来以更为有效的方式管理存储系统。
根据本公开的第一方面,提供了一种用于管理存储系统的方法,存储系统包括多个存储设备中的至少一部分存储设备,多个存储设备中的相应存储设备中包括第一部分和第二部分,第一部分用于存储数据以及第二部分被预留用于存储系统的重建。该方法包括:确定至少一部分存储设备中的存储设备中出现故障;基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复故障存储设备中的第一部分中的数据;从多个存储设备中的正常存储设备中选择一组存储设备;以及向选择的一组存储设备中的第二部分写入恢复的数据。
根据本公开的第二方面,一种用于管理存储系统的设备,包括:至少一个处理器;易失性存储器;以及与至少一个处理器耦合的存储器,存储器具有存储于其中的指令,指令在被至少一个处理器执行时使得设备执行用于管理存储系统的动作。存储系统包括多个存储设备中的至少一部分存储设备,多个存储设备中的相应存储设备中包括第一部分和第二部分,第一部分用于存储数据以及第二部分被预留用于存储系统的重建。该动作包括:确定至少一部分存储设备中的存储设备中出现故障;基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复故障存储设备中的第一部分中的数据;从多个存储设备中的正常存储设备中选择一组存储设备;以及向选择的一组存储设备中的第二部分写入恢复的数据。
根据本公开的第三方面,提供了一种计算机程序产品,计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令用于执行根据本公开的第一方面的方法。
附图说明
结合附图并参考以下详细说明,本公开各实现的特征、优点及其他方面将变得更加明显,在此以示例性而非限制性的方式示出了本公开的若干实现。在附图中:
图1A示意性示出了其中可以实现本公开的方法的存储系统的示意图;
图1B示意性示出了根据一个技术方案的用于重建图1A中的存储系统的示意图;
图2示意性示出了根据本公开的一个示例性实现的用于管理存储系统的架构图;
图3示意性示出了根据本公开的一个示例性实现的用于管理存储系统的方法的流程图;
图4示意性示出了根据本公开的一个示例性实现的用于基于多个存储设备中的第二部分来构建虚拟存储设备的框图;
图5示意性示出了根据本公开的一个示例性实现的虚拟存储设备的框图;
图6示意性示出了根据本公开的一个示例性实现的用于重建存储系统中的一个区块的框图;
图7示意性示出了根据本公开的一个示例性实现的用于重建存储系统中的一个区块的框图;
图8示意性示出了根据本公开的一个示例性实现的用于管理存储系统的设备的框图;以及
图9示意性示出了根据本公开的一个示例性实现的用于管理存储系统的设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实现。虽然附图中显示了本公开的优选实现,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实现所限制。相反,提供这些实现是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实现”和“一个实现”表示“至少一个示例实现”。术语“另一实现”表示“至少一个另外的实现”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
在本公开的上下文中,存储系统可以是基于RAID的存储系统。基于RAID的存储系统可以将多个存储设备组合起来,成为一个磁盘阵列。通过提供冗余的存储设备,可以使得整个磁盘组的可靠性大大超过单一的存储设备。RAID可以提供优于单一的存储设备的各种优势,例如,增强数据整合度,增强容错功能,增加吞吐量或容量,等等。RAID存在多个标准,例如RAID-1,RAID-2,RAID-3,RAID-4,RAID-5,RAID-6,RAID-10,RAID-50等等。关于RAID级别的更多细节,本领域技术人员例如可以参见https://en.wikipedia.org/wiki/Standard_RAID_levels、以及https://en.wikipedia.org/wiki/Nested_RAID_levels等。
图1A示意性示出了其中可以实现本公开的方法的存储系统100A的示意图。在图1A所示的存储系统中,以包括五个独立存储设备(110、112、114、116以及118)的RAID-5(4D+1P,其中4D表示存储系统中包括四个存储设备来用于存储数据,1P表示存储系统中包括一个存储设备来用于存储P校验)阵列为示例,来说明RAID的工作原理。应当注意,尽管图1A中示意性示出了五个存储设备,在其他的实现中,根据RAID的等级不同,还可以包括更多或者更少的存储设备。尽管图1A中示出了条带120、122、124、…、126,在其他的示例中,RAID系统还可以包括不同数量的条带。
在RAID中,条带跨越多个物理存储设备(例如,条带120跨越存储设备110、112、114、116以及118)。可以简单地将条带理解为多个存储设备中的满足一定地址范围的存储区域。在条带120中存储的数据包括多个部分:存储在存储设备110上的数据块D00、存储在存储设备112上的数据块D01、存储在存储设备114上的数据块D02、存储在存储设备116上的数据块D03、以及存储在存储设备118上的数据块P0。在此示例中,数据块D00、D01、D02、以及D03是被存储的数据,而数据块P0是被存储数据的P校验。
在其他条带122和124中存储数据的方式也类似于条带120,不同之处在于,有关其他数据块的校验可以存储在不同于存储设备118的存储设备上。以此方式,当多个存储设备110、112、114、116以及118中的一个存储设备出现故障时,可以从其他的正常的存储设备中恢复出故障设备中的数据。
图1B示意性示出了存储系统110A的重建过程的示意图100B。如图1B所示,当一个存储设备(例如,以阴影示出的存储设备116)出现故障时,可以从其余的正常操作的多个存储设备110、112、114、118中恢复数据。此时,可以向RAID中加入新的后备存储设备118B来替代存储设备118。进而,可以将恢复的数据写入118B并实现系统的重建。
应当注意,尽管在上文中参见图1A和图1B描述了包括5个存储设备(其中4个存储设备用于存储数据,1个存储设备用于存储校验)的RAID-5的存储系统,根据其他RAID等级的定义,还可以存在包括其他数量的存储设备的存储系统。例如,基于RAID-6的定义,可以利用两个存储设备来分别存储校验P和Q。又例如,基于三重校验RAID的定义,可以利用三个存储设备来分别存储校验P、Q和R。
当采用如图1B所示的架构时,需要单独提供后备存储设备118B。一方面,该后备存储设备118B需要花费额外的开销,另一方面,在存储系统的重建期间,被恢复的各个数据块(例如,故障存储设备116中的数据块D03、D12、D21、…、DN3)需要被串行地写入后备存储设备118B,因而导致重建效率低下。鉴于上述问题,期望开发出一种可以以较低成本来提供后备存储空间、并且以较高效率来执行存储系统的重建的技术方案。
根据本公开的一个示例性实现,提供了一种用于管理存储系统的方法。存储系统包括多个存储设备中的至少一部分存储设备,多个存储设备中的相应存储设备中包括第一部分和第二部分,第一部分用于存储数据以及第二部分被预留用于存储系统的重建。在此实现中,可以将每个存储设备划分为第一部分和第二部分,可以在第一部分中存储数据,并且将第二部分作为后备存储来预留用于后续可能出现的存储系统重建。
在下文中将参见图2描述更多细节,图2示意性示出了根据本公开的一个示例性实现的用于管理存储系统的架构图200。在图2中,示出了多个存储设备110、112、114、116、118、210、212、214、216以及218,并且上述多个存储设备可以用于多个存储系统。每个存储设备可以包括第一部分和第二部分。例如,存储设备110、112、114、116、118中的第一部分可以用于存储系统220,而存储设备210、212、214、216以及218中的第一部分可以用于另一存储系统222。
在图2中,以虚线框示出了多个存储设备中的第二部分230,并且该第二部分可以预留用于在某个存储设备出现故障时,用作后备存储设备。假设用于存储系统220的存储设备110、112、114、116、118中的存储设备116中出现故障,则可以存储系统220中的正常存储设备110、112、114、中的第一部分中的数据,恢复故障存储设备116中的第一部分中的数据。接着,可以从多个存储设备中的正常存储设备中选择一组存储设备(例如,210、212、214、216以及218)。继而,可以向选择的一组存储设备中的第二部分写入恢复的数据。
将会理解,可以以多种方式来确定第一部分和第二部分的容量之间的比例关系。例如,可以根据存储系统的用户的定义来设置该比例。又例如,还可以按照基于历史经验总结的比例来设置。根据本公开的一个示例性实现,可以将第一部分和第二部分的比例设置为30:1或者其他数值。将会理解,应当确保被选择的一组存储设备中的第二部分容量足够容纳故障存储设备中的数据。
将会理解,尽管在图2中示意性示出了两个存储系统(4D+1P)中的存储设备的情况,在其他实现中,还可以存在更多或者更少的存储系统。根据本公开的一个示例性实现,可以仅存在一个存储系统,此时将仅存在5个存储设备110、112、114、116、118,并且在第二部分230中将仅包括5个存储设备中的第二部分。根据本公开的一个示例性实现,还可以存在3个存储系统(4D+1P),在此不再赘述。
图3示意性示出了根据本公开的一个示例性实现的用于管理存储系统的方法300的流程图。在框310处,确定至少一部分存储设备中的存储设备中出现故障。在框320处,基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复故障存储设备中的第一部分中的数据。在此实现中,可以基于存储系统的类型来执行恢复操作。例如,对于存储系统220而言,当存储设备116出现故障时,则可以基于正常的存储设备110中的数据块D00、存储设备112中的数据块D01、存储设备114中的数据块D02以及存储设备118中的数据块P0,来恢复故障存储设备116中的数据块D03。
在框330处,可以从多个存储设备中的正常存储设备中选择一组存储设备。例如,可以选择存储设备210、212、214、216以及218。在框340处,向选择的一组存储设备中的第二部分写入恢复的数据块D03。将会理解,尽管在上文中以顺序方式来执行框320和330处的操作,在本公开的上下文中并不限定上述操作的顺序。根据本公开的一个示例性实现,可以以相反顺序、或者还可以并行地执行上述操作。
利用上述示例性实现,一方面不必为存储系统单独提供后备存储设备,这可以降低存储系统的开销。另一方面,可以并行地向一组存储设备中写入恢复的数据,因而避免了传统技术方案中由于顺序地向单一后备存储设备写入恢复的数据导致的漫长恢复时间。
根据本公开的一个示例性实现,存储系统可以包括地址映射,并且该地址映射可以描述存储系统中的数据在多个存储设备中的地址。例如,存储系统对于用户可见的地址范围可以是0x00…00至0xff…fff,并且用户需要经由该地址范围内的用户地址来访问数据。该地址映射可以描述用户地址与真实的物理地址之间的映射关系。在此物理地址可以表示为数据在存储设备中的真实地址,例如,可以以存储设备的标识符和数据在该存储设备中的真实地址来描述。
在将恢复的数据写入一组存储设备中的第二部分之后,还需要更新存储系统的地址映射。具体地,可以根据数据在故障存储设备中的第一部分中的地址以及恢复的数据在一组存储设备中的第二部分中的地址,更新存储系统的地址映射。在存储系统220中,当存储设备116出现故障时,可以根据数据块在故障存储设备116中的地址以及恢复的数据块在一组存储设备中的第二部分中的地址,来更新地址映射。以此方式,存储系统220的内部情况对于存储系统220的用户而言是透明的,用户不必知晓存储系统220中的故障存储设备116中的数据被恢复至何处。存储系统220可以基于更新后的地址映射继续工作。
根据本公开的一个示例性实现,响应于接收到针对存储系统的访问请求,基于更新的地址映射访问与访问请求相关联的目标数据。此时,当访问请求涉及访问原本位于故障存储设备116中的数据块时,更新后的地址映射可以将该访问请求引导至一组存储设备的第二部分中的相应的位置。
根据本公开的一个示例性实现,为了便于管理,还可以基于所选择的一组存储设备中的第二部分建立虚拟存储设备。图4示意性示出了根据本公开的一个示例性实现的用于基于多个存储设备中的第二部分230来构建虚拟存储设备410和420的框图400。在图4中,第二部分230包括分别来自于存储设备110、112、114、116和118的多个区块、以及来自于存储设备210、212、214、216以及218的多个区块。根据本公开的一个示例性实现,可以利用一组存储设备中的第二部分,创建基于独立磁盘冗余阵列的虚拟存储设备410和420。
根据本公开的一个示例性实现,为了提高重建的存储系统的可靠性,可以尽量从多个存储设备中的至少一部分存储设备以外的存储设备中选择一组存储设备。如图4所示,当存储系统220中的一个存储设备出现故障时,可以选择存储设备210、212、214、216以及218中的一个或者多个存储设备,来作为后备存储的存储设备。当存储系统222中的一个存储设备出现故障时,可以选择存储设备110、112、114、116、118中的一个或者多个存储设备,来作为后备存储的存储设备。利用上述示例性实现,作为后备的存储设备与存储系统中的正常存储设备是不同的物理存储设备,因而可以确保各个存储设备可以独立操作,进而确保重建后的存储系统的可靠性。
根据本公开的一个示例性实现,可以基于存储系统中的存储设备的数量,选择一组存储设备。此时存储系统220是4D+1P的存储系统,因而可以选择5个存储设备中的第二部分,作为后备存储。
在已经创建虚拟存储设备之后,可以向创建的虚拟存储设备中写入恢复的数据。具体而言,假设存储系统220中的一个存储设备出现故障,可以创建虚拟存储设备420,并且则可以将恢复的数据写入该虚拟存储设备420。假设存储系统222中的一个存储设备出现故障,可以创建虚拟存储设备410,并且则可以将恢复的数据写入该虚拟存储设备410。
图5示意性示出了根据本公开的一个示例性实现的虚拟存储设备410的框图500。如图5所示,可以按照4D+1P的方式来管理来自多个存储设备的区块。例如,可以在虚拟存储设备410中提供条带,该条带可以跨越虚拟存储设备410中的各个存储设备。如图5所示,该条带可以包括区块510、512、514、516和518,其中四个区块可以用于存储数据,而另一区块可以存储数据部分的校验。可以参见RAID的基本原理来创建虚拟存储设备410。类似地,还可以在虚拟存储设备410中提供更多的条带,在本文中将不再赘述。
将会理解,尽管在图5中示意性示出了基于5个存储设备创建符合4D+1P的RAID规则的虚拟存储设备410,在其他示例中,还可以选择更多或者更少的存储设备,并且基于其他规则来创建虚拟存储设备410。根据本公开的一个示例性实现,可以基于6个存储设备中的第二部分,根据4D+1P+1Q的规则来创建存储设备410。备选地或者附加地,还可以基于其他规则创建存储设备410。
根据本公开的一个示例性实现,存储系统可以包括多个条带,因而可以针对多个条带中的每个条带,逐个恢复故障存储设备中的与每个条带相关联的数据区块。针对故障存储设备中每个条带的操作是类似的。在下文中,将仅以如何恢复第一条带中的第一区块为示例进行描述。可以基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复第一区块中的数据。继而,可以向选择的一组存储设备中的第二部分写入恢复的数据包括:向虚拟存储设备中写入恢复的第一区块中的数据。在下文中,将参加图6描述有关恢复的更多细节。
利用上述示例性实现,由于构建虚拟存储设备的物理存储设备不同于存储设备中已有的正常存储设备,此时当正常存储设备中又有另一存储设备出现故障时,仍然可以恢复该另一故障存储设备中的数据。进而,确保存储设备具有更高的可靠性。
图6示意性示出了根据本公开的一个示例性实现的用于重建存储系统222中的一个区块的框图600。如图6所示,假设存储系统222中的存储设备212出现故障,此时可以逐一恢复故障存储设备212中的各个区块中的数据(例如,数据块D01、D10、P2等)。对于第一个条带中的第一个区块而言,可以分别基于存储设备210、214、216、218中的数据块D00、D02、D03、P0来恢复数据块D01,以形成恢复的数据块。继而,可以将恢复的数据块写入虚拟存储设备410中的第一个条带中的各个区块(如以阴影示出的区块510、512、514、516和518)。
基于针对数据块D01的操作,可以以类似方式处理故障存储设备212中的其他数据块D10、P2等。例如,可以向虚拟存储设备410中的第二条带中写入恢复的数据块D10,向第三条带中写入恢复的数据块P2,以此类推。
根据本公开的一个示例性实现,当存储系统包括多个条带时,可以并行地向虚拟存储设备中写入恢复的与各个条带有关的数据。利用上述示例性实现,存储系统的重建可以至少部分地以并行方式执行,进而提高重建效率。例如,如果存储设备包括跨越至少一部分存储设备的第二条带,可以基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复第二区块中的数据。继而,可以与向虚拟存储设备中写入恢复的第一区块中的数据并行地,向虚拟存储设备中写入恢复的第二区块中的数据。
在上文中已经描述了从多个存储设备中选择不同于存储系统中的存储设备的一组存储设备,来建立虚拟存储设备并且向该虚拟存储设备中写入恢复的数据的技术方案。根据本公开的一个示例性实现,还可能涉及仅存在一个存储系统的情况。在下文中,将参见图7描述更多细节。
图7示意性示出了根据本公开的一个示例性实现的用于重建存储系统中的一个区块的框图700。图7中仅示出了一个存储系统220,当存储系统220中的存储设备110出现故障时,可以基于正常的存储设备112、114、116、118中的第二部分来构建虚拟存储设备410。此时,可以将故障存储设备110中的各个区块的数据写入虚拟存储设备410的各个条带中。例如,第一个区块中的数据块D00可以被存储在第一条带中的区块512、514、516和518中。
将会理解,当存储系统中出现了故障存储设备后,需要利用正常的存储设备来替换该故障存储设备,以确保存储系统的正常使用。根据本公开的一个示例性实现,如果检测到向存储系统中加入替换故障存储设备的后备存储设备,则可以从一组存储设备中的第二部分向后备存储设备拷贝数据。继而,根据拷贝的数据在后备存储设备中的地址,更新地址映射。在此实现中,由于拷贝操作的速度远远快于从正常存储设备中恢复数据的操作的速度,因而,此时将会快速完成替换故障存储设备的过程。
根据本公开的一个示例性实现,在已经完成向后备存储设备拷贝数据之后,存储系统将恢复为正常的存储系统,因而可以释放一组存储设备中的第二部分的存储空间。此时,第二部分中的存储空间可以用于在存储系统中的存储设备中发生故障时使用。
在上文中已经参见图2至图7详细描述了根据本公开的方法的示例,在下文中将参见图8详细描述相应的设备的实现。图8示意性示出了根据本公开的一个示例性实现的用于管理存储系统的设备800的框图。存储系统包括多个存储设备中的至少一部分存储设备,多个存储设备中的相应存储设备中包括第一部分和第二部分,第一部分用于存储数据以及第二部分被预留用于存储系统的重建。具体地,该设备800包括:确定模块810,配置用于确定至少一部分存储设备中的存储设备中出现故障;恢复模块820,配置用于基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复故障存储设备中的第一部分中的数据;选择模块830,配置用于从多个存储设备中的正常存储设备中选择一组存储设备;以及写入模块840,配置用于向选择的一组存储设备中的第二部分写入恢复的数据。在此的设备800可以配置用于执行上文描述的方法500中的各个步骤,在此不再赘述。
图9示意性示出了根据本公开的一个示例性实现的用于在分布式系统中管理地址以及处理拷贝请求设备900的框图。如图所示,设备900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的计算机程序指令或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序指令,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。CPU 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法500,可由处理单元901执行。例如,在一些实现中,方法500可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实现中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序被加载到RAM 903并由CPU 901执行时,可以执行上文描述的方法500的一个或多个步骤。备选地,在其他实现中,CPU 901也可以以其他任何适当的方式被配置以实现上述过程/方法。
根据本公开的一个示例性实现,提供了一种用于管理存储系统的设备,包括:至少一个处理器;易失性存储器;以及与至少一个处理器耦合的存储器,存储器具有存储于其中的指令,指令在被至少一个处理器执行时使得设备执行用于管理存储系统的动作。存储系统包括多个存储设备中的至少一部分存储设备,多个存储设备中的相应存储设备中包括第一部分和第二部分,第一部分用于存储数据以及第二部分被预留用于存储系统的重建。动作包括:确定至少一部分存储设备中的存储设备中出现故障;基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复故障存储设备中的第一部分中的数据;从多个存储设备中的正常存储设备中选择一组存储设备;以及向选择的一组存储设备中的第二部分写入恢复的数据。
根据本公开的一个示例性实现,动作进一步包括:根据数据在故障存储设备中的第一部分中的地址以及恢复的数据在一组存储设备中的第二部分中的地址,更新存储系统的地址映射,地址映射描述存储系统中的数据在多个存储设备中的地址。
根据本公开的一个示例性实现,动作进一步包括:响应于接收到针对存储系统的访问请求,基于更新的地址映射访问与访问请求相关联的目标数据。
根据本公开的一个示例性实现,向选择的一组存储设备中的第二部分写入恢复的数据包括:利用一组存储设备中的第二部分,创建基于独立磁盘冗余阵列的虚拟存储设备;以及向虚拟存储设备中写入恢复的数据。
根据本公开的一个示例性实现,存储设备包括跨越至少一部分存储设备的第一条带,其中恢复故障存储设备中的数据包括:针对故障存储设备中的第一条带中的第一区块,基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复第一区块中的数据;以及向选择的一组存储设备中的第二部分写入恢复的数据包括:向虚拟存储设备中写入恢复的第一区块中的数据。
根据本公开的一个示例性实现,存储设备包括跨越至少一部分存储设备的第二条带,其中恢复故障存储设备中的数据包括:针对故障存储设备中的第二条带中的第二区块,基于至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复第二区块中的数据;以及向选择的一组存储设备中的第二部分写入恢复的数据包括:与向虚拟存储设备中写入恢复的第一区块中的数据并行地,向虚拟存储设备中写入恢复的第二区块中的数据。
根据本公开的一个示例性实现,选择一组存储设备包括:从多个存储设备中的至少一部分存储设备以外的存储设备中选择一组存储设备。
根据本公开的一个示例性实现,选择一组存储设备包括:基于存储系统中的存储设备的数量,选择一组存储设备。
根据本公开的一个示例性实现,动作进一步包括:响应于检测到向存储系统中加入替换故障存储设备的后备存储设备,从一组存储设备中的第二部分向后备存储设备拷贝数据;以及根据拷贝的数据在后备存储设备中的地址,更新地址映射。
根据本公开的一个示例性实现,动作进一步包括:释放一组存储设备中的第二部分的存储空间。
根据本公开的一个示例性实现,提供了一种计算机程序产品,计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,机器可执行指令用于执行根据本公开的方法。
根据本公开的一个示例性实现,提供了一种计算机可读介质。计算机可读介质上存储有机器可执行指令,当机器可执行指令在被至少一个处理器执行时,使得至少一个处理器实现根据本公开方法。
本公开可以是方法、设备、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实现中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实现的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其他可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其他可编程数据处理装置、或其他设备上,使得在计算机、其他可编程数据处理装置或其他设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其他可编程数据处理装置、或其他设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实现的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实现,上述说明是示例性的,并非穷尽性的,并且也不限于所公开的各实现。在不偏离所说明的各实现的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实现的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文公开的各实现。

Claims (21)

1.一种用于管理存储系统的方法,所述存储系统包括多个存储设备中的至少一部分存储设备,所述多个存储设备中的相应存储设备中包括第一部分和第二部分,所述第一部分用于存储数据以及所述第二部分被预留用于所述存储系统的重建,所述方法包括:
确定所述至少一部分存储设备中的存储设备中出现故障;
基于所述至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复所述故障存储设备中的第一部分中的数据;
从所述多个存储设备中的正常存储设备中选择一组存储设备;以及
向选择的所述一组存储设备中的第二部分写入恢复的数据。
2.根据权利要求1所述的方法,进一步包括:
根据所述数据在所述故障存储设备中的第一部分中的地址以及恢复的所述数据在所述一组存储设备中的所述第二部分中的地址,更新所述存储系统的地址映射,所述地址映射描述所述存储系统中的数据在所述多个存储设备中的地址。
3.根据权利要求2所述的方法,进一步包括:响应于接收到针对所述存储系统的访问请求,
基于更新的所述地址映射访问与所述访问请求相关联的目标数据。
4.根据权利要求1所述的方法,其中向选择的所述一组存储设备中的第二部分写入恢复的数据包括:
利用所述一组存储设备中的所述第二部分,创建基于独立磁盘冗余阵列的虚拟存储设备;以及
向所述虚拟存储设备中写入恢复的所述数据。
5.根据权利要求1所述的方法,其中所述存储设备包括跨越所述至少一部分存储设备的第一条带,其中恢复所述故障存储设备中的数据包括:针对所述故障存储设备中的所述第一条带中的第一区块,
基于所述至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复所述第一区块中的数据;以及
向选择的所述一组存储设备中的第二部分写入恢复的数据包括:向所述虚拟存储设备中写入恢复的所述第一区块中的数据。
6.根据权利要求5所述的方法,其中所述存储设备包括跨越所述至少一部分存储设备的第二条带,其中恢复所述故障存储设备中的数据包括:针对所述故障存储设备中的所述第二条带中的第二区块,
基于所述至少一部分存储设备中的所述故障存储设备以外的正常存储设备中的第一部分中的数据,恢复所述第二区块中的数据;以及
向选择的所述一组存储设备中的第二部分写入恢复的数据包括:与向所述虚拟存储设备中写入恢复的所述第一区块中的数据并行地,向所述虚拟存储设备中写入恢复的所述第二区块中的数据。
7.根据权利要求1所述的方法,其中选择所述一组存储设备包括:
从所述多个存储设备中的所述至少一部分存储设备以外的存储设备中选择所述一组存储设备。
8.根据权利要求1所述的方法,其中选择所述一组存储设备包括:基于所述存储系统中的存储设备的数量,选择所述一组存储设备。
9.根据权利要求2所述的方法,进一步包括:响应于检测到向所述存储系统中加入替换所述故障存储设备的后备存储设备,
从所述一组存储设备中的所述第二部分向所述后备存储设备拷贝数据;以及
根据拷贝的所述数据在所述后备存储设备中的地址,更新所述地址映射。
10.根据权利要求9所述的方法,进一步包括:释放所述一组存储设备中的所述第二部分的存储空间。
11.一种用于管理存储系统的设备,包括:
至少一个处理器;
易失性存储器;以及
与所述至少一个处理器耦合的存储器,所述存储器具有存储于其中的指令,所述指令在被所述至少一个处理器执行时使得所述设备执行用于管理存储系统的动作,所述存储系统包括多个存储设备中的至少一部分存储设备,所述多个存储设备中的相应存储设备中包括第一部分和第二部分,所述第一部分用于存储数据以及所述第二部分被预留用于所述存储系统的重建,所述动作包括:
确定所述至少一部分存储设备中的存储设备中出现故障;
基于所述至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复所述故障存储设备中的第一部分中的数据;
从所述多个存储设备中的正常存储设备中选择一组存储设备;以及
向选择的所述一组存储设备中的第二部分写入恢复的数据。
12.根据权利要求11所述的设备,其中所述动作进一步包括:
根据所述数据在所述故障存储设备中的第一部分中的地址以及恢复的所述数据在所述一组存储设备中的所述第二部分中的地址,更新所述存储系统的地址映射,所述地址映射描述所述存储系统中的数据在所述多个存储设备中的地址。
13.根据权利要求12所述的设备,其中所述动作进一步包括:响应于接收到针对所述存储系统的访问请求,
基于更新的所述地址映射访问与所述访问请求相关联的目标数据。
14.根据权利要求11所述的设备,其中向选择的所述一组存储设备中的第二部分写入恢复的数据包括:
利用所述一组存储设备中的所述第二部分,创建基于独立磁盘冗余阵列的虚拟存储设备;以及
向所述虚拟存储设备中写入恢复的所述数据。
15.根据权利要求11所述的设备,其中所述存储设备包括跨越所述至少一部分存储设备的第一条带,其中恢复所述故障存储设备中的数据包括:针对所述故障存储设备中的所述第一条带中的第一区块,
基于所述至少一部分存储设备中的故障存储设备以外的正常存储设备中的第一部分中的数据,恢复所述第一区块中的数据;以及
向选择的所述一组存储设备中的第二部分写入恢复的数据包括:向所述虚拟存储设备中写入恢复的所述第一区块中的数据。
16.根据权利要求15所述的设备,其中所述存储设备包括跨越所述至少一部分存储设备的第二条带,其中恢复所述故障存储设备中的数据包括:针对所述故障存储设备中的所述第二条带中的第二区块,
基于所述至少一部分存储设备中的所述故障存储设备以外的正常存储设备中的第一部分中的数据,恢复所述第二区块中的数据;以及
向选择的所述一组存储设备中的第二部分写入恢复的数据包括:与向所述虚拟存储设备中写入恢复的所述第一区块中的数据并行地,向所述虚拟存储设备中写入恢复的所述第二区块中的数据。
17.根据权利要求11所述的设备,其中选择所述一组存储设备包括:
从所述多个存储设备中的所述至少一部分存储设备以外的存储设备中选择所述一组存储设备。
18.根据权利要求11所述的设备,其中选择所述一组存储设备包括:基于所述存储系统中的存储设备的数量,选择所述一组存储设备。
19.根据权利要求12所述的设备,其中所述动作进一步包括:响应于检测到向所述存储系统中加入替换所述故障存储设备的后备存储设备,
从所述一组存储设备中的所述第二部分向所述后备存储设备拷贝数据;以及
根据拷贝的所述数据在所述后备存储设备中的地址,更新所述地址映射。
20.根据权利要求19所述的设备,其中所述动作进一步包括:释放所述一组存储设备中的所述第二部分的存储空间。
21.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令用于执行根据权利要求1-10中的任一项所述的方法。
CN201810400532.2A 2018-04-28 2018-04-28 用于管理存储系统的方法、设备和计算机程序产品 Active CN110413208B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810400532.2A CN110413208B (zh) 2018-04-28 2018-04-28 用于管理存储系统的方法、设备和计算机程序产品
US16/212,237 US10929230B2 (en) 2018-04-28 2018-12-06 Method, apparatus and computer program product for managing storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810400532.2A CN110413208B (zh) 2018-04-28 2018-04-28 用于管理存储系统的方法、设备和计算机程序产品

Publications (2)

Publication Number Publication Date
CN110413208A true CN110413208A (zh) 2019-11-05
CN110413208B CN110413208B (zh) 2023-05-30

Family

ID=68292586

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810400532.2A Active CN110413208B (zh) 2018-04-28 2018-04-28 用于管理存储系统的方法、设备和计算机程序产品

Country Status (2)

Country Link
US (1) US10929230B2 (zh)
CN (1) CN110413208B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111007992A (zh) * 2020-03-04 2020-04-14 广东电网有限责任公司佛山供电局 一种磁盘数据存储表示方法、系统、存储介质
CN112925471A (zh) * 2019-12-06 2021-06-08 伊姆西Ip控股有限责任公司 在存储系统中选择重建目的地的方法、设备和程序产品
CN113282232A (zh) * 2020-02-19 2021-08-20 希捷科技有限公司 具有协同优化的多级擦除系统
CN113552998A (zh) * 2020-04-24 2021-10-26 伊姆西Ip控股有限责任公司 用于管理存储系统中的条带的方法、设备和程序产品
CN113590378A (zh) * 2020-04-30 2021-11-02 伊姆西Ip控股有限责任公司 存储管理的方法、设备和计算机程序产品
CN114442903A (zh) * 2020-10-30 2022-05-06 伊姆西Ip控股有限责任公司 管理存储系统的方法、电子设备和计算机程序产品

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6598174B1 (en) * 2000-04-26 2003-07-22 Dell Products L.P. Method and apparatus for storage unit replacement in non-redundant array
US20100251012A1 (en) * 2009-03-24 2010-09-30 Lsi Corporation Data Volume Rebuilder and Methods for Arranging Data Volumes for Improved RAID Reconstruction Performance
US20110283047A1 (en) * 2010-05-11 2011-11-17 Byungcheol Cho Hybrid storage system for a multi-level raid architecture
US8099623B1 (en) * 2008-10-08 2012-01-17 Netapp, Inc. Efficient distributed hot sparing scheme in a parity declustered RAID organization
US20140164822A1 (en) * 2012-12-06 2014-06-12 Hon Hai Precision Industry Co., Ltd. Host computer and method for managing sas expanders of sas expander storage system
US20150269025A1 (en) * 2014-03-24 2015-09-24 Lsi Corporation Write redirection in redundant array of independent disks systems
CN107870730A (zh) * 2016-09-23 2018-04-03 伊姆西Ip控股有限责任公司 用于管理存储系统的方法和系统
US20180107546A1 (en) * 2016-10-14 2018-04-19 Promise Technology, Inc Data storage system with virtual blocks and raid and management method thereof

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146524B2 (en) 2001-08-03 2006-12-05 Isilon Systems, Inc. Systems and methods for providing a distributed file system incorporating a virtual hot spare
US7685126B2 (en) 2001-08-03 2010-03-23 Isilon Systems, Inc. System and methods for providing a distributed file system utilizing metadata to track information about data stored throughout the system
CN1692356B (zh) 2002-11-14 2014-06-04 易斯龙系统公司 用于对现存文件重新条带化的方法
US8127307B1 (en) 2007-12-31 2012-02-28 Emc Corporation Methods and apparatus for storage virtualization system having switch level event processing
US7970994B2 (en) * 2008-03-04 2011-06-28 International Business Machines Corporation High performance disk array rebuild
US8880843B2 (en) * 2010-02-10 2014-11-04 International Business Machines Corporation Providing redundancy in a virtualized storage system for a computer system
US9514014B2 (en) 2011-08-17 2016-12-06 EMC IP Holding Company, LLC Methods and systems of managing a distributed replica based storage
US9335928B2 (en) * 2011-10-01 2016-05-10 International Business Machines Corporation Using unused portion of the storage space of physical storage devices configured as a RAID
US8990495B2 (en) 2011-11-15 2015-03-24 Emc Corporation Method and system for storing data in raid memory devices
US9026729B1 (en) 2011-11-15 2015-05-05 Emc Corporation Data recovery after triple disk failure
US8799705B2 (en) 2012-01-04 2014-08-05 Emc Corporation Data protection in a random access disk array
RU2013128347A (ru) 2013-06-20 2014-12-27 ИЭмСи КОРПОРЕЙШН Сверточные коды для исправления скрытых ошибок носителей
JP6233086B2 (ja) * 2014-02-20 2017-11-22 富士通株式会社 ストレージ制御装置,ストレージシステム及び制御プログラム
JP6244974B2 (ja) * 2014-02-24 2017-12-13 富士通株式会社 ストレージ装置、及びストレージ装置の制御方法
US9367395B1 (en) 2014-03-31 2016-06-14 Emc Corporation Managing data inconsistencies in storage systems
US9910791B1 (en) 2015-06-30 2018-03-06 EMC IP Holding Company LLC Managing system-wide encryption keys for data storage systems
US9804939B1 (en) 2015-09-30 2017-10-31 EMC IP Holding Company LLC Sparse raid rebuild based on storage extent allocation
US9971648B1 (en) 2015-12-29 2018-05-15 EMC IP Holding Company LLC Dynamic parities mechanism
US9891994B1 (en) 2015-12-30 2018-02-13 EMC IP Holding Company LLC Updated raid 6 implementation
US10013321B1 (en) 2016-06-22 2018-07-03 EMC IP Holding Company LLC Early raid rebuild to improve reliability
US10210045B1 (en) 2017-04-27 2019-02-19 EMC IP Holding Company LLC Reducing concurrency bottlenecks while rebuilding a failed drive in a data storage system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6598174B1 (en) * 2000-04-26 2003-07-22 Dell Products L.P. Method and apparatus for storage unit replacement in non-redundant array
US8099623B1 (en) * 2008-10-08 2012-01-17 Netapp, Inc. Efficient distributed hot sparing scheme in a parity declustered RAID organization
US20100251012A1 (en) * 2009-03-24 2010-09-30 Lsi Corporation Data Volume Rebuilder and Methods for Arranging Data Volumes for Improved RAID Reconstruction Performance
US20110283047A1 (en) * 2010-05-11 2011-11-17 Byungcheol Cho Hybrid storage system for a multi-level raid architecture
US20140164822A1 (en) * 2012-12-06 2014-06-12 Hon Hai Precision Industry Co., Ltd. Host computer and method for managing sas expanders of sas expander storage system
US20150269025A1 (en) * 2014-03-24 2015-09-24 Lsi Corporation Write redirection in redundant array of independent disks systems
CN107870730A (zh) * 2016-09-23 2018-04-03 伊姆西Ip控股有限责任公司 用于管理存储系统的方法和系统
US20180107546A1 (en) * 2016-10-14 2018-04-19 Promise Technology, Inc Data storage system with virtual blocks and raid and management method thereof

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112925471A (zh) * 2019-12-06 2021-06-08 伊姆西Ip控股有限责任公司 在存储系统中选择重建目的地的方法、设备和程序产品
CN113282232A (zh) * 2020-02-19 2021-08-20 希捷科技有限公司 具有协同优化的多级擦除系统
CN111007992A (zh) * 2020-03-04 2020-04-14 广东电网有限责任公司佛山供电局 一种磁盘数据存储表示方法、系统、存储介质
CN113552998A (zh) * 2020-04-24 2021-10-26 伊姆西Ip控股有限责任公司 用于管理存储系统中的条带的方法、设备和程序产品
CN113552998B (zh) * 2020-04-24 2023-09-15 伊姆西Ip控股有限责任公司 用于管理存储系统中的条带的方法、设备和程序产品
CN113590378A (zh) * 2020-04-30 2021-11-02 伊姆西Ip控股有限责任公司 存储管理的方法、设备和计算机程序产品
CN114442903A (zh) * 2020-10-30 2022-05-06 伊姆西Ip控股有限责任公司 管理存储系统的方法、电子设备和计算机程序产品

Also Published As

Publication number Publication date
US10929230B2 (en) 2021-02-23
CN110413208B (zh) 2023-05-30
US20190332479A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
CN110413208A (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN110413201A (zh) 用于管理存储系统的方法、设备和计算机程序产品
US11281536B2 (en) Method, device and computer program product for managing storage system
CN108733314A (zh) 用于独立冗余阵列(raid)重建的方法、设备和计算机可读存储介质
US10664367B2 (en) Shared storage parity on RAID
CN107870730A (zh) 用于管理存储系统的方法和系统
CN107526531B (zh) 为映射独立盘冗余阵列(raid)选择raid级别的方法和设备
CN108228086A (zh) Raid重建的方法和设备
CN110413198A (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN109725837A (zh) 管理存储系统的方法、系统和计算机程序产品
CN110389858A (zh) 存储设备的故障恢复方法和设备
CN109725826A (zh) 管理存储系统的方法、设备和计算机可读介质
CN110058953A (zh) 用于改变存储系统的类型的方法、设备和计算机程序产品
CN112764661B (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN111857541B (zh) 用于管理存储系统的方法、设备和计算机程序产品
US10761761B2 (en) Method and device for managing storage system
CN109213619A (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN110413203A (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN111104055A (zh) 用于管理存储系统的方法、设备和计算机程序产品
JP2022525919A (ja) コンピューティング・ストレージ環境におけるリビルド時間を減少させること
CN110058785B (zh) 用于管理存储系统的方法和设备
CN111124250A (zh) 用于管理存储空间的方法、设备和计算机程序产品
US11422909B2 (en) Method, device, and storage medium for managing stripe in storage system
CN111104051A (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN112732168B (zh) 用于管理存储系统的方法、设备和计算机程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant