CN112148204B - 用于管理独立冗余盘阵列的方法、设备和介质 - Google Patents

用于管理独立冗余盘阵列的方法、设备和介质 Download PDF

Info

Publication number
CN112148204B
CN112148204B CN201910569797.XA CN201910569797A CN112148204B CN 112148204 B CN112148204 B CN 112148204B CN 201910569797 A CN201910569797 A CN 201910569797A CN 112148204 B CN112148204 B CN 112148204B
Authority
CN
China
Prior art keywords
disk
raid
fail
predicted
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910569797.XA
Other languages
English (en)
Other versions
CN112148204A (zh
Inventor
刘冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN201910569797.XA priority Critical patent/CN112148204B/zh
Priority to US16/794,455 priority patent/US11074146B2/en
Publication of CN112148204A publication Critical patent/CN112148204A/zh
Application granted granted Critical
Publication of CN112148204B publication Critical patent/CN112148204B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1088Reconstruction on already foreseen single or plurality of spare disks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3476Data logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3485Performance evaluation by tracing or monitoring for I/O devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/805Real-time

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Hardware Design (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开的实施例涉及一种用于管理独立冗余盘阵列(RAID)的方法、设备和计算机程序产品。该方法包括从RAID的日志页面获取与RAID中盘区段的状态有关的日志参数。该方法还包括基于日志参数确定盘区段是否在预定时间区间内预计发生故障。此外,该方法还包括响应于确定盘区段预计发生故障,确定RAID的重建顺序以用于重建RAID,使得被预测为在预定时间区间内预计发生故障的盘区段的重建优先级高于RAID中的其他盘区段。以此方式,一方面以高优先级重建预计发生故障的盘区段,使得能够以对系统影响最小的方式重建RAID。另一方面能够尽量避免在重建期间对预计发生故障的盘区段的访问,以降低对系统运行的影响。

Description

用于管理独立冗余盘阵列的方法、设备和介质
技术领域
本公开的实施例总体涉及数据存储,更具体地,涉及用于管理独立冗余盘阵列(RAID)的方法、设备和计算机程序产品。
背景技术
独立盘冗余阵列(RAID)是一种数据存储虚拟化技术,其出于数据冗余备份和/或性能改进的目的将多个物理盘组合成单个逻辑单元。当单个盘发生故障时,后续的读取能够通过分布式校验信息来计算,使得没有数据被丢失。同时,预备盘将被选择以替代故障盘,并且故障盘上的所有数据将被重建并被写入到预备盘上。
从存储可用性和性能角度来看,重建RAID对系统会产生较大的影响。尤其是,随着当前盘容量的不断增大,重建时间会显著增加。因此长时间的重建会带来数据丢失、数据不可用以及数据失效等风险,造成RAID性能的显著下降。
发明内容
本公开的实施例涉及一种用于管理独立冗余磁盘阵列的方法、设备和计算机程序产品。
在本公开实施例的第一方面,提供了一种用于管理RAID的方法。该方法包括从RAID的日志页面获取与RAID中盘区段的状态有关的日志参数。该方法还包括基于日志参数确定盘区段是否在预定时间区间内预计发生故障。此外,该方法还包括响应于确定盘区段预计发生故障,确定RAID的重建顺序以用于重建RAID,使得被预测为在预定时间区间内预计发生故障的盘区段的重建优先级高于RAID中的其他盘区段。
在本公开实施例的第二方面,提供了一种用于管理RAID的设备。该设备包括至少一个处理器和包括计算机程序指令的至少一个存储器。至少一个存储器和计算机程序指令被配置为,与至少一个处理器一起,使得电子设备执行动作。该动作包括从RAID的日志页面获取与RAID中盘区段的状态有关的日志参数。该动作还包括基于日志参数确定盘区段是否在预定时间区间内预计发生故障。此外,该动作还包括响应于确定盘区段预计发生故障,确定RAID的重建顺序以用于重建RAID,使得被预测为在预定时间区间内预计发生故障的盘区段的重建优先级高于RAID中的其他盘区段。
在本公开的第三方面,提供一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机可读介质上并且包括机器可执行指令,所述机器可执行指令在被执行时使机器执行上述第一方面所述的方法的步骤。
提供发明内容部分是为了简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开内容的关键特征或主要特征,也无意限制本公开内容的范围。
附图说明
图1示出了可以在其中实施本公开实施例的示例性运行环境100的示意图;
图2示出了根据本公开的实施例的用于管理RAID的方法200的流程图;
图3示出了根据本公开的实施例的日志页面的示意图;
图4示出了根据本公开的实施例的执行盘区段故障的预测以及重建示例性部件的示意图;
图5示出了根据本公开的实施例的用于处理在重建RAID期间的读写操作的方法500的流程图;以及
图6示出了可以用来实施本公开的实施例的示例设备600的框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
在下文中,将参考附图详细描述本公开的各个示例性实施例。应当注意,这些附图和描述涉及的仅仅是作为示例性的实施例。应该指出的是,根据随后描述,很容易设想出此处公开的结构和方法的替换实施例,并且可以在不脱离本公开要求保护的原理的情况下使用这些替代实施例。
应当理解,给出这些示例性实施例仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本公开的范围。
在此使用的术语“包括”、“包含”及类似术语应该被理解为是开放性的术语,即“包括/包含但不限于”。术语“基于”是“至少部分地基于”。术语“一些实施例”表示“至少一些实施例”;术语“另一实施例”表示“至少一个另外的实施例”。其他术语的相关定义将在下文描述中给出。
图1示出了可以在其中实施本公开实施例的示例性运行环境100的示意图。运行环境100包括RAID盘组110。在图1中,该RAID盘组110具有4个数据块和1个校验块(4D+1P)的RAID5。RAID盘组110包括盘1100、1101、1102、1103、1104,其中盘1100、1101、1102、1103为数据盘,而盘1104为校验盘。此外,RAID盘组110以盘1105作为其预备盘,以在RAID盘组110中的某个盘或某个盘区块发生故障时利用该预备盘来重建该盘或盘区块。RAID盘组110的每个条带可以包括5个块,该5个块由4个数据块(即,数据块D00、D01……D3n的块)和1个校验块(即,校验块D40、D42……D4n的块)构成。
此外,运行环境100还可以包括用于管理RAID盘组110的管理设备120。在本公开的实施例中,该管理设备120例如可以执行对于RAID盘组110中的盘的读写操作、对RAID盘组110中的盘的故障预测以及对对RAID盘组110中的盘的进行重建等操作。
如上文所述,独立盘冗余阵列(RAID)是一种数据存储虚拟化技术,其出于数据冗余备份和/或性能改进的目的将多个物理盘组合成单个逻辑单元。当单个盘发生故障时,后续的读取能够通过分布式校验信息来计算,使得没有数据被丢失。同时,预备盘将被选择以替代故障盘,并且故障盘上的所有数据将被重建并被写入到预备盘上。
从存储可用性和性能角度来看,重建RAID对系统会产生较大的影响。尤其是,随着当前盘容量的不断增大,重建时间会显著增加。因此长时间的重建会带来数据丢失、数据不可用以及数据失效等风险,造成RAID性能的显著下降。
因此,数据域(DD)引入了一种被称为“复制重建”重建方法。当检测到SMART错误超过阈值时,管理设备120会找到预备盘1105并尝试将有问题的工作盘中的数据按顺序复制到预备盘1105。一旦遇到输入/输出(I/O)错误或超时,它就会将重建逻辑从复制逻辑更改为RAID奇偶校验计算(使用其他正常工作的盘数据)。奇偶校验计算可以针对数据的盘区段继续工作,然后再次尝试返回复制操作。
然而这样的重建方法并不能知晓下层盘的每个盘区段(Extent)的故障状态,因此会造成以下缺陷。例如,访问有问题的盘的盘区段会导致更多的I/O错误。这种错误造成更加严重的数据丢失等风险,从而对系统产生不良的影响。
此外,访问有问题的盘的盘区段会导致更高的I/O错误。这些I/O请求并不仅仅包括重建请求,还包括在重建过程中的其他I/O请求。这些I/O请求造成的高延迟会严重降低客户体验。
再者,现有方案的重建逻辑并不关注盘区段的潜在的健康状态。因此在长期的重建期间,其无法将最容易丢失的数据(处在将要发生故障的盘区段)列为最高优先级。这进一步增大了数据丢失、数据不可用以及数据失效等风险。
因此,本公开的实施例提出一种用于管理RAID的方法。管理设备120能够基于从RAID盘组中的盘区段的日志参数来预测在预定时间区间内预计发生故障的盘区段并且在重建过程中优先重建被预测为预计发生故障的盘区段。同时,避免在重建过程中访问被预测为预计发生故障的盘区段。以此方式,将重建过程对系统性能的影响,减小数据丢失的风险,避免造成系统的降级。
在此使用的术语“盘区段”,也称作物理盘区段,其可以涉及RAID盘组中的盘上的一个或多个盘区块。盘区段的大小可以根据用户的需求来定义。在本公开的实施例中,术语“盘区段”指示RAID盘组中的盘中的能够被预测故障最小单位。
以下结合图2至图5进一步详细描述根据本公开的实施例的方法。图2示出了示出了根据本公开的实施例的方法200的流程图。为了方便描述,在图2中针对相同或相似的部件使用与图1一致的附图标记。
在框210,管理设备120从RAID的日志页面获取与RAID中盘区段的状态有关的日志参数。
在一些实施例中,后台媒体扫描(BMS)是盘框架内的后台扫描机智。在时间窗内没有到来的指令的情况下,盘框架开始扫描读取过程。当扫描读取请求失败时,其使用循环冗余校验(CRC)码尝试恢复数据并将其重写到有问题的逻辑块地址(LBA)。当恢复失败时,其会增加未恢复的计数器。
盘监控器能够通过日志页面收集扫描和校验结果。图3示出了根据本公开的实施例的日志页面的示意图。在图3中显示了标准BMS结果日志参数的一个实例。
在一些实施例中,管理设备120从RAID的日志页面获取的与RAID中盘区段的状态有关的日志参数例如可以包括在图3中示出的日志页面300中的检测关键字302,附加检测码303,附加检测码限定符304,开机分钟数301,重赋值状态305以及与发生读取后台扫描失败的盘区段相关联的LBA 306中的一项或多项。
重新参考图2,在框220,管理设备120基于获取到的日志参数确定相应的盘区段是否在预定时间区间内预计发生故障。
在一些实施例中,管理设备120可以获取盘区段的状态和在预定时间区间内预计发生故障的概率之间的关联关系。该关联关系例如可以是与故障预测相关联的机器学习模型,例如随机森林模型。
可以使用获取到的日志参数,例如上文所述的在图3中的日志页面300上的检测关键字302,附加检测码303,附加检测码限定符304,开机分钟数301,重赋值状态305以及与发生读取后台扫描失败的盘区段相关联的LBA 306中的一项或多项作为特征,将未被恢复的错误的数目作为响应数据并且将随机森林模型作为机器学习的训练方法,以确定盘区段的状态和在预定时间区间内预计发生故障的概率之间的关联关系。
在一些实施例中,管理设备120可以根据获取到的日志参数和所确定的盘区段的状态和在预定时间区间内预计发生故障的概率之间的关联关系来确定所述盘区段发生故障的概率。一旦确定该故障的概率超出了阈值概率,则确定盘区段将要发生故障。
在框230,如果确定盘区段预计发生故障,管理设备120则确定RAID的重建顺序,以用于重建RAID。该重建顺序能够使得被预测为在预定时间区间内预计发生故障的盘区段的重建优先级高于该RAID中的其他盘区段,也就是未被预计发生故障的那些盘区段。
图4示出了根据本公开的实施例的执行盘区段故障的预测以及重建示例性部件的示意图。以下结合图4进一步阐述在图2的流程图200中示出的动作。
如图4所示,执行盘区段故障的预测以及重建示例性部件可以包括RAID盘后台逻辑模块组410以及故障预测模块420。该RAID盘后台逻辑模块组410以及故障预测模块420例如可以是图1中示出的管理设备120的组成部分。
故障预测模块420中的基于机器学习的盘故障预测模块421监控SMART统计模块422和BMS统计模块423的数据,并在接下来的预定时间期间(例如,N天)进行整个盘级别故障预测。如果基于机器学习的盘故障预测模块421预测将要发生故障的盘,其将主动触发RAID盘后台逻辑模块组410中的复制重建逻辑模块412的复制重建过程。复制重建逻辑模块412找到预备盘,并通过复制或RAID奇偶校验进行重建。
故障预测模块420中的基于机器学习的盘区段故障预测模块423利用BMS统计模块423的数据预测接下来的预定时间期间(例如,N天)的盘区段级别的故障,并将该预测信息通知到RAID盘后台逻辑模块组410中的在N天后的盘区段故障预测模块414。如果预测到预定时间期间内的盘区段级别的故障,则也将触发RAID盘后台逻辑模块组410中的复制重建逻辑模块412的复制重建过程。
在一些实施例中,管理设备120可以生成用于重建RAID的位图。该位图可以指示被预测为在所述预定时间区间内预计发生故障的盘区段。相应地,该位图也可以未被预测为在预定时间区间内预计发生故障的盘区段。管理设备120可以基于生成的位图来重建RAID。
例如管理设备120可以首先对位图中指示被预测为在预定时间区间内预计发生故障的盘区段进行重建。可能存在多于一个盘区段被预测为在预定时间区间内预计发生故障。管理设备120每完成一个盘区段的重建,则更新该位图,直到位图中指示的最后一个被预测为在预定时间区间内预计发生故障的盘区段的重建完成,则开始对于未被预测为在预定时间区间内预计发生故障的盘区段进行复制重建。
以此方式,能够通过故障预测结果对原始的重建逻辑进行优化,从而以高优先级重建预计发生故障的盘区段上最易丢失的数据,避免系统发生严重降级。
综上所述,当预测到有问题的盘时,则触发复制重建逻辑模块412。如果没有离线此工作盘,其会在备用盘上启动复制重建过程。基于盘区段级别故障预测,首先通过复制或RAID奇偶校验计算重建预计要发生故障的盘区段,然后重建该盘区段。同时,重建仍需要考虑读写请求处理逻辑模块411的正常的读写请求处理。
图5示出了根据本公开的实施例的用于处理在重建RAID期间的读写操作的方法500的流程图。以下结合图5进一步描述在重建过程中处理读写请求的方法。
在框510,管理设备120在重建过程中接收到新的读写请求。在框520,管理设备12,可以根据读写请求指示的长度和偏移量确定要执行读写操作的目标盘区段。
在框530,管理设备120确定要执行读写操作的目标盘区段是否属于预计发生故障的所述盘区段。如果管理设备120确定要执行读写操作的目标盘区段不属于预计发生故障的盘区段,则在框540,管理设备120在该目标盘区段上执行读写操作。
在一些实施例中,如果管理设备120确定要执行读写操作的目标盘区段属于预计发生故障的盘区段,则在框550,管理设备120确定预计发生故障的盘区段的重建是否已经完成。如果该重建已经完成,则在框560,管理设备120在该目标盘区段上执行读写操作。
在一些实施例中,如果管理设备120确定预计发生故障的盘区段的重建尚未完成,则在框570,管理设备120不执行写操作。
在一些实施例中,如果管理设备120确定预计发生故障的盘区段的重建尚未完成,管理设备120可以确定所请求的是读操作还写操作。针对读操作,管理设备120可以读取和奇偶校验计算尝试从RAID中的其他盘上返回数据。针对写操作,管理设备120将跳过未重建完成的预计发生故障的盘区段。
通过上文描述的在重建过程中处理请求的方法,能够在最大程度上避免对于预计发生故障的盘区段的访问,从而最大限度地减少对运行系统的影响。
此外,如上文已经描述过程的,在一些实施例中,管理设备120可以通过如下方式重建RAID。管理设备120可以利用与预计发生故障的盘区段相关联的至少一个盘区段的数据,在预备盘上恢复预计发生故障的盘区段。之后,如果预计发生故障的盘区段被恢复,管理设备120可以将RAID中的其他盘区段的数据复制到所述预备盘。
通过监控后台媒体扫描(BMS)统计数据和机器学习算法,它可以执行物理盘区段(Extent)级别故障预测。一个盘可以被分成数百个物理盘区段,因此可以以较细粒度的方式管理存储。基于物理盘区段(Extent)级别故障预测能够清楚地确定盘上的哪些盘区段在预定时间期间严重降级。
以此方式,能够确定盘区段的潜在的健康风险。因此在重建期间,能够将最容易丢失的数据(处在将要发生故障的盘区段)列为最高优先级,降低了数据丢失、数据不可用以及数据失效等风险。此外,避免了由于访问有问题的盘区段而导致的更高的I/O错误。
图6示出了可以用来实施本公开内容的实施例的示例设备600的示意性框图。例如,如图1所示的102、104、110和112的任一项可以由设备600来实施。如图所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。CPU 601、ROM602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法300和400可由处理单元601执行。例如,在一些实施例中,方法300和400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序被加载到RAM 603并由CPU 601执行时,可以执行上文描述的方法300和400的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (15)

1.一种用于管理独立冗余盘阵列RAID的方法,包括:
从所述RAID的日志页面获取与所述RAID中盘区段的状态有关的日志参数;
基于所述日志参数,确定所述盘区段在预定时间区间内被预测将发生故障;以及
响应于确定所述盘区段被预测将发生故障,确定所述RAID的重建顺序以用于重建所述RAID,使得在所述预定时间区间内被预测将发生故障的盘区段的重建优先级高于所述RAID中的其他盘区段;以及
使用所述重建顺序来启动所述RAID的重建。
2.根据权利要求1所述的方法,其中获取所述日志参数包括获取以下参数中的至少一项;
检测关键字,
附加检测码,
附加检测码限定符,
开机分钟数,
重赋值状态,以及
与在读取后台扫描期间发生故障的盘区段相关联的逻辑块地址LBA。
3.根据权利要求1所述的方法,其中确定所述盘区段被预测将发生故障包括:
基于所获取的日志参数,确定所述盘区段发生故障的概率;以及
响应于所述概率超出阈值概率,确定所述盘区段被预测将发生故障。
4.根据权利要求1所述的方法,还包括:
响应于在所述重建的过程中接收到针对所述RAID的读写操作的指令,确定要执行所述读写操作的目标盘区段;
确定所述目标盘区段是否属于被预测将发生故障的所述盘区段;以及
响应于确定所述目标盘区段不属于被预测将发生故障的所述盘,在目标盘区段上执行所述读写操作。
5.根据权利要求1所述的方法,还包括:
响应于在所述重建期间接收到针对所述RAID的读写操作的指令,确定目标盘区段,所述读写操作将在所述目标盘区段上被执行;
确定所述目标盘区段是否属于被预测将发生故障的所述盘区段;
响应于确定所述目标盘区段属于被预测将发生故障的所述盘区段,确定被预测将发生故障的所述盘区段的重建是否已经完成;以及
响应于所述重建已经完成,在目标盘区段上执行所述读写操作。
6.根据权利要求1所述的方法,其中重建所述RAID包括:
生成用于重建所述RAID的位图,所述位图指示被预测为在所述预定时间区间内被预测将发生故障的所述盘区段;以及
基于所述位图来重建所述RAID。
7.根据权利要求1所述的方法,还包括:
通过以下方式重建所述RAID:
利用与被预测将发生故障的所述盘区段相关联的至少一个盘区段的数据,在预备盘上恢复被预测将发生故障的所述盘区段;以及
响应于被预测将发生故障的所述盘区段被恢复,将所述RAID中的其他盘区段的数据复制到所述预备盘。
8.一种用于管理独立冗余盘阵列RAID的设备,包括:
至少一个处理器;以及
与所述至少一个处理器耦合的存储器,所述存储器包含有存储于其中的指令,所述指令在被所述至少一个处理单元执行时,使得所述设备执行动作,所述动作包括:
从所述RAID的日志页面获取与所述RAID中盘区段的状态有关的日志参数;
基于所述日志参数,确定所述盘区段在预定时间区间内被预测将发生故障;以及
响应于确定所述盘区段预计发生故障,确定所述RAID的重建顺序以用于重建所述RAID,使得在所述预定时间区间内被预测将发生故障的盘区段的重建优先级高于所述RAID中的其他盘区段;以及
使用所述重建顺序来启动所述RAID的重建。
9.根据权利要求8所述的设备,其中获取所述日志参数包括获取以下参数中的至少一项;
检测关键字,
附加检测码,
附加检测码限定符,
开机分钟数,
重赋值状态,以及
与在读取后台扫描期间发生故障的盘区段相关联的逻辑块地址LBA。
10.根据权利要求8所述的设备,其中确定所述盘区段被预测将发生故障包括:
基于所获取的日志参数,确定所述盘区段发生故障的概率;以及
响应于所述概率超出阈值概率,确定所述盘区段被预测将发生故障。
11.根据权利要求8所述的设备,所述动作还包括:
响应于在所述重建的过程中接收到针对所述RAID的读写操作的指令,确定要执行所述读写操作的目标盘区段;
确定所述目标盘区段是否属于被预测将发生故障的所述盘区段;以及
响应于确定所述目标盘区段不属于被预测将发生故障的所述盘,在目标盘区段上执行所述读写操作。
12.根据权利要求11所述的设备,所述动作还包括:
响应于在所述重建期间接收到针对所述RAID的读写操作的指令,确定目标盘区段,所述读写操作将在所述目标盘区段上被执行;
确定所述目标盘区段是否属于被预测将发生故障的所述盘区段;
响应于确定所述目标盘区段属于被预测将发生故障的所述盘区段,确定被预测将发生故障的所述盘区段的重建是否已经完成;以及
响应于所述重建已经完成,在目标盘区段上执行所述读写操作。
13.根据权利要求8所述的设备,其中重建所述RAID包括:
生成用于重建所述RAID的位图,所述位图指示被预测为在所述预定时间区间内被预测将发生故障的所述盘区段;以及
基于所述位图来重建所述RAID。
14.根据权利要求8所述的设备,所述动作还包括:
通过以下方式重建所述RAID:
利用与被预测将发生故障的所述盘区段相关联的至少一个盘区段的数据,在预备盘上恢复被预测将发生故障的所述盘区段;以及
响应于被预测将发生故障的所述盘区段被恢复,将所述RAID中的其他盘区段的数据复制到所述预备盘。
15.一种非瞬态计算机可读介质,在其上存储有机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1至7任一项所述的方法的步骤。
CN201910569797.XA 2019-06-27 2019-06-27 用于管理独立冗余盘阵列的方法、设备和介质 Active CN112148204B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910569797.XA CN112148204B (zh) 2019-06-27 2019-06-27 用于管理独立冗余盘阵列的方法、设备和介质
US16/794,455 US11074146B2 (en) 2019-06-27 2020-02-19 Method, device and computer program product for managing redundant arrays of independent drives

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910569797.XA CN112148204B (zh) 2019-06-27 2019-06-27 用于管理独立冗余盘阵列的方法、设备和介质

Publications (2)

Publication Number Publication Date
CN112148204A CN112148204A (zh) 2020-12-29
CN112148204B true CN112148204B (zh) 2024-02-02

Family

ID=73868862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910569797.XA Active CN112148204B (zh) 2019-06-27 2019-06-27 用于管理独立冗余盘阵列的方法、设备和介质

Country Status (2)

Country Link
US (1) US11074146B2 (zh)
CN (1) CN112148204B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210349780A1 (en) * 2020-05-11 2021-11-11 Samsung Electronics Co., Ltd. Systems, methods, and devices for data recovery with spare storage device and fault resilient storage device
US20210349781A1 (en) * 2020-05-11 2021-11-11 Samsung Electronics Co., Ltd. Systems, methods, and devices for data recovery using parity space as recovery space
KR20220080915A (ko) * 2020-12-08 2022-06-15 삼성전자주식회사 스토리지 장치와 호스트 장치의 구동 방법 및 스토리지 장치
US11734117B2 (en) * 2021-04-29 2023-08-22 Vast Data Ltd. Data recovery in a storage system
US11829233B2 (en) * 2022-01-14 2023-11-28 Servicenow, Inc. Failure prediction in a computing system based on machine learning applied to alert data

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7574623B1 (en) * 2005-04-29 2009-08-11 Network Appliance, Inc. Method and system for rapidly recovering data from a “sick” disk in a RAID disk group

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070079170A1 (en) * 2005-09-30 2007-04-05 Zimmer Vincent J Data migration in response to predicted disk failure
US8689040B2 (en) * 2010-10-01 2014-04-01 Lsi Corporation Method and system for data reconstruction after drive failures
US20150286531A1 (en) * 2012-12-20 2015-10-08 Hewlett-Packard Development Company, L.P. Raid storage processing
US20140215147A1 (en) * 2013-01-25 2014-07-31 Hewlett-Packard Development Company, L.P. Raid storage rebuild processing
US9141457B1 (en) * 2013-09-25 2015-09-22 Emc Corporation System and method for predicting multiple-disk failures
US9547552B2 (en) * 2014-12-11 2017-01-17 Netapp, Inc. Data tracking for efficient recovery of a storage array
CN113407122B (zh) * 2016-12-21 2023-08-25 伊姆西Ip控股有限责任公司 Raid重建的方法和设备
CN108733314B (zh) * 2017-04-17 2021-06-29 伊姆西Ip控股有限责任公司 用于独立冗余阵列(raid)重建的方法、设备和计算机可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7574623B1 (en) * 2005-04-29 2009-08-11 Network Appliance, Inc. Method and system for rapidly recovering data from a “sick” disk in a RAID disk group

Also Published As

Publication number Publication date
CN112148204A (zh) 2020-12-29
US11074146B2 (en) 2021-07-27
US20200409809A1 (en) 2020-12-31

Similar Documents

Publication Publication Date Title
CN112148204B (zh) 用于管理独立冗余盘阵列的方法、设备和介质
US11099955B2 (en) Method and device for rebuilding raid
CN109725822B (zh) 用于管理存储系统的方法、设备和计算机程序产品
US20190332502A1 (en) Method, device and computer program product for managing storage system
US10936419B2 (en) Method, device and computer readable medium for managing a storage system
US10664367B2 (en) Shared storage parity on RAID
US11321202B2 (en) Recovering storage devices in a storage array having errors
CN111344679B (zh) 用于增强独立磁盘冗余阵列重建的机器学习的方法和系统
US20200394112A1 (en) Reducing incidents of data loss in raid arrays of differing raid levels
CN103544202A (zh) 用于安排数据处理的方法和系统
CN111104051B (zh) 用于管理存储系统的方法、设备和计算机程序产品
CN110413208B (zh) 用于管理存储系统的方法、设备和计算机程序产品
US20190324875A1 (en) Method and apparatus for failure recovery of storage device
US10210062B2 (en) Data storage system comprising an array of drives
US10929037B2 (en) Converting a RAID to a more robust RAID level
CN112748856A (zh) 管理盘的方法、电子设备和计算机程序产品
US11074118B2 (en) Reporting incidents of data loss in RAID arrays
US11442826B2 (en) Reducing incidents of data loss in raid arrays having the same raid level
CN113391945A (zh) 用于存储管理的方法、电子设备以及计算机程序产品
US11747990B2 (en) Methods and apparatuses for management of raid
CN111857560A (zh) 用于管理数据的方法、设备和计算机程序产品
CN113590378A (zh) 存储管理的方法、设备和计算机程序产品
CN114385412A (zh) 存储管理方法、设备和计算机程序产品
CN112084060A (zh) 减少不同raid级别的raid阵列中的数据丢失事件
US11669262B2 (en) Method, device, and product for managing scrubbing operation in storage system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant