WO2012051931A1 - 廉价磁盘冗余阵列重构方法,装置及系统 - Google Patents

廉价磁盘冗余阵列重构方法,装置及系统 Download PDF

Info

Publication number
WO2012051931A1
WO2012051931A1 PCT/CN2011/080882 CN2011080882W WO2012051931A1 WO 2012051931 A1 WO2012051931 A1 WO 2012051931A1 CN 2011080882 W CN2011080882 W CN 2011080882W WO 2012051931 A1 WO2012051931 A1 WO 2012051931A1
Authority
WO
WIPO (PCT)
Prior art keywords
disk
physical
identifier
logical
unit
Prior art date
Application number
PCT/CN2011/080882
Other languages
English (en)
French (fr)
Inventor
关伟平
Original Assignee
成都市华为赛门铁克科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 成都市华为赛门铁克科技有限公司 filed Critical 成都市华为赛门铁克科技有限公司
Publication of WO2012051931A1 publication Critical patent/WO2012051931A1/zh
Priority to US13/715,703 priority Critical patent/US8843782B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems

Definitions

  • the embodiments of the present invention relate to the field of storage technologies, and in particular, to a Redundant Array of Inexpensive Disks (RAID) reconstruction method, apparatus, and system. Background technique
  • RAID Redundant Array of Inexpensive Disks
  • the embodiment of the invention provides a RAID reconstruction method, device and system, which are used to solve the problem that the RAID reconstruction speed is slow in the case of a physical disk failure in the prior art, and the RAID reconstruction speed is improved.
  • An embodiment of the present invention provides a RAID reconstruction method, including: when a failure occurs in a first physical disk, finding, from each logical module of a pre-generated layout template, that the DU of the first physical disk is in the same LDS. The DU of the other physical disk is XORed from the data read by the DU of the other physical disk into the hot spare DU of the second physical disk; in the layout template, the DU of the second physical disk is used.
  • the layout template includes m logic modules, each logic module includes 2 LDSs, and the redundant array of inexpensive disks includes N physical disks.
  • N takes a value of N-1, and each logical disk
  • the stripe includes an identifier of (m+1)/2 disk units; or when N is an odd number, m is a value of N, and each logical disk strip includes an identifier of ( m - 1)/2 DUs;
  • the DUs corresponding to the identifiers of the DUs in the LDS belong to different physical disks, and the identifiers of the DUs included in each LDS in the same logical module are different; the identifier of the DU of the second physical disk and the first physical
  • the identifiers of the DUs of the disks are in the same column in the logical module, and the identifiers of the DUs of the first physical disk and the second physical disk belong to different LDSs.
  • the embodiment of the invention further provides a RAID reconstruction device, including:
  • a storage module configured to store a layout template, where the layout template includes m logic modules, each logic module includes 2 LDSs, and the redundant array of inexpensive disks includes N physical disks.
  • the value of m is For N-1, each logical disk strip includes the identifier of (m+1)/2 disk units; or when N is an odd number, m is N, and each logical disk strip includes (m-1)
  • the ID of the /2 DUs; the DUs corresponding to the IDs of the DUs in each LDS belong to different physical disks, and the identifiers of the DUs included in each LDS in the same logical module are different; when N is even , m is N-1; when N is odd, m is N; N is the total number of physical disks in RAID;
  • a first processing module configured to: when the first physical disk fails, find, from each logical module of the layout template stored by the storage module, a DU of another physical disk that is in the same LDS as the DU of the first physical disk Transmitting data read from the DUs of the other physical disks into the DU of the second physical disk after XORing;
  • a second processing module configured to replace, in the layout template, an identifier of a DU of the first physical disk with an identifier of a DU of the second physical disk; an identifier of the DU of the second physical disk and a first object
  • the identifiers of the DUs of the disk are in the same column in the logic module, and the identifiers of the DUs of the first physical disk and the second physical disk belong to different LDSs.
  • the embodiment of the invention further provides a RAID system, including the RAID reconstruction device as described above.
  • the RAID reconstruction method, device, and system provided by the embodiment of the present invention pre-generate a layout template.
  • the layout template is found to be in the same LDS as the DU of the failed physical disk.
  • the ID of the DU of the other physical disk reads data from the DU corresponding to the ID of the DU of the other physical disk of the same LDS as the DU of the failed physical disk, and writes the read data to the XOR.
  • the ID of the DU corresponding to the failed physical disk in the layout template is in the DU corresponding to the ID of the DU of another physical disk in the same column.
  • the layout template includes m logic modules, each of which includes 2 LDSs, each of which includes (m+1) 12 or (m-1) 12 DUs, each of which belongs to a different physical disk. Since the logic module includes a plurality of DUs of the physical disks in which the identifiers of the DUs corresponding to the failed physical disks are in the same column, there are multiple identifiers, so that the data can be written into the DUs corresponding to the different physical disks. Instead of writing to the same hot spare physical disk, the time required to write data is reduced, the time required for RAID reconstruction recovery is shortened, and the reconstruction speed is reduced and reduced. The probability of double disk failure increases the reliability of the RAID system.
  • FIG. 1 is a flowchart of Embodiment 1 of a RAID reconstruction method according to the present invention
  • FIG. 2 is a schematic diagram showing spatial division of a physical disk according to an embodiment of the present invention
  • FIG. 3 is a diagram showing an identifier of a DU corresponding to six physical disks. A schematic diagram of the order of the numbers in the respective identifiers;
  • FIG. 1 is a flowchart of Embodiment 1 of a RAID reconstruction method according to the present invention
  • FIG. 2 is a schematic diagram showing spatial division of a physical disk according to an embodiment of the present invention
  • FIG. 3 is a diagram showing an identifier of a DU corresponding to six physical disks. A schematic diagram of the order of the numbers in the respective identifiers;
  • FIG. 1 is a flowchart of Embodiment 1 of a RAID reconstruction method according to the present invention
  • FIG. 2 is a schematic diagram showing spatial division of a physical disk according to an embodiment of the present invention
  • FIG. 4 is a schematic diagram showing the arrangement of the DUs as shown in FIG. 3 after the first rotation
  • FIG. 5 is a schematic view showing the arrangement of the DU shown in FIG. 3 after the second rotation
  • FIG. 6 is a schematic diagram showing the arrangement after the third rotation of the DU shown in FIG. 3
  • FIG. 8 is a schematic diagram showing a layout template formed by using the six physical disks in the embodiment of the present invention
  • FIG. 10 is a diagram showing the identifiers of the DUs corresponding to the 10 physical disks in the order of the numbers in the respective identifiers in the embodiment of the present invention.
  • Figure 11 is a schematic diagram showing nine logical modules generated in the case of including nine physical disks in the embodiment of the present invention
  • Figure 12 is a layout generated in the case of including nine physical disks in the embodiment of the present invention
  • FIG. 13 is a schematic diagram of a layout template after recovering a failed physical disk according to an embodiment of the present invention
  • FIG. 14 is a schematic diagram of a physical disk in which P1 and P2 are located after a fault occurs in the embodiment of the present invention
  • FIG. 15 is a schematic structural diagram of Embodiment 1 of a RAID reconstruction apparatus according to the present invention
  • FIG. 16 is a schematic structural diagram of Embodiment 2 of a RAID reconstruction apparatus according to the present invention.
  • FIG. 1 is a flowchart of Embodiment 1 of a RAID reconstruction method according to the present invention, including:
  • Step 101 When the first physical disk fails, find the DU of the other physical disk that is in the same LDS as the disk unit (DU) of the first physical disk from each logical module of the pre-generated layout template. The data read from the DUs of the other physical disks is XORed and written into the hot spare DU of the second physical disk.
  • DU disk unit
  • Step 102 In the layout template, replace the identifier of the DU of the first physical disk with the identifier of the DU of the second physical disk; the identifier of the DU of the second physical disk and the identifier of the DU of the first physical disk are the same in the logic module. Columns, the identifiers of the DUs of the first physical disk and the second physical disk belong to different LDSs.
  • the layout template includes m logic modules, each logic module includes two logical disk strips (Logic Disk Stripe, LDS for short), and the redundant array of inexpensive disks includes one physical disk, when ⁇ is even, m
  • the value is N-1, and each logical disk strip includes the identifier of (m+1)/2 disk units; or when N is an odd number, m is N, and each logical disk strip includes (m- 1) /2 disk unit identifiers; the DUs corresponding to the DUs in each LDS belong to different physical disks, and the IDs of the DUs included in each LDS in the same logical module are different, N is The number of physical disks in the RAID, preferably, N may be greater than or equal to 6.
  • the physical disk is divided into multiple areas, as shown in FIG. 2 is a schematic diagram of spatial division of a physical disk in the embodiment of the present invention.
  • the physical disk includes a data space, a hot standby space, and a backup (Data Backup, referred to as DB) space.
  • the data space is used to store normal data.
  • the hot spare space is used to store data recovered from other failed disks.
  • the backup space is used for the DB archive of the storage system.
  • Each storage system needs a file to record and store the current system status, configuration data, etc. These system status and configuration data can be collectively referred to as DB. In order to ensure the security of this file, it will be compressed by the compression algorithm when the DB is saved, and then stored in the disk.
  • the compressed DB file is the DB compression package.
  • the data space, the hot spare space, and the backup space each include a plurality of DUs. That is, in the embodiment of the present invention, data storage and reading are performed at a granularity of DU.
  • the DU in the hot spare space is called the hot standby DU.
  • a layout template may be pre-generated when creating a RAID.
  • the device used to manage each physical disk can generate a layout template when creating RAID.
  • the method for generating a layout template may include: arranging the identifiers of the DUs of the N physical disks according to a preset order, and dividing into two rows.
  • each row includes an identifier of N/2 DUs; if N is an odd number , then one row includes ((N+1) /2) - 1 DU's identity and one virtual DU's identity, and the other row includes ((N+1) /2) DU's identity;
  • the identifier of the first DU is fixed.
  • N is an even number
  • the identifiers of the remaining DUs are sequentially shifted (N-1 times, and (N-1) logical modules are generated; when N is an odd number, the identifiers of the remaining DUs are sequentially shifted.
  • Bit N times N logical modules are generated, and the columns of the respective logical modules containing the identifier of the virtual DU are removed.
  • the RAID can include multiple physical disks. Assume that the RAID includes six physical disks, and P1, P2, P3, P4, P5, and P6 are respectively used as the identifiers of the DUs on the respective physical disks.
  • the identifiers of the DUs corresponding to the six physical disks are arranged in a preset order.
  • the preset order may be the order of the numbers in the identifiers, or may be the order of the letters in the identifiers.
  • the identifiers of the sorted DUs are divided into two rows, each row including three DUs, as shown in FIG.
  • the identifiers of the DUs corresponding to the discs are arranged in order of the size of the numbers in the respective identifiers.
  • each logical module includes two LDSs, each LDS includes an identifier of three DUs, and the DU corresponding to the identifier of each DU They belong to different physical disks.
  • the logical modules formed by the arrangement of the DUs after the rounding and the arrangement of the initially formed DUs may form a layout template, as shown in FIG. 8 , which is a layout formed by including six physical disks in the embodiment of the present invention.
  • FIG. 8 is a layout formed by including six physical disks in the embodiment of the present invention.
  • a schematic diagram of a template, the layout template includes five logical modules, and the identifier of each row of DUs forms an LDS, and the DU corresponding to the identifier of each column of DUs forms a virtual disk. For the user, the user sees these three virtual disks. In fact, the three virtual disks are composed of DUs scattered on each physical disk.
  • the RAID includes six physical disks as an example. If the RAID includes N (assuming N is an even number) physical disks, you can rotate to generate a layout template as shown in Figure 9, as shown in Figure 9. Schematic diagram of generating a layout template in the case where N physical disks are included in the embodiment of the present invention The specific generation method is the same as the foregoing six physical disks, and will not be described again.
  • the step of performing the subsequent rotation may be performed by adding a virtual DU identifier P10, and arranging the identifiers of the DUs corresponding to the 10 physical disks according to a preset order.
  • the preset order may be the size of the numbers in the respective identifiers. order.
  • the identifiers of the sorted DUs are divided into two lines, each of which includes the identifiers of the five DUs, wherein the first row includes the identifiers of the DUs of the five physical disks, and the second row includes the identifiers of the DUs of the four physical disks. , and a virtual DU logo.
  • the identifiers of the DUs corresponding to the 10 physical disks are sequentially arranged in the order of the numbers in the respective identifiers. It should be noted that, in FIG. 10, the identifier of the virtual DU is sorted in the last one, and therefore, the identifier of the virtual DU is divided into the second row. If sorted in other ways, the virtual DU's logo can also be in the first line.
  • FIG. 11 A schematic diagram of nine logical modules generated in the case where nine physical disks are included in the embodiment. Then, the column containing P10 in each logic module is removed, and a layout template is generated. As shown in FIG. 12, it is a schematic diagram of a layout template generated when 9 physical disks are included in the embodiment of the present invention.
  • the data read in the corresponding DU is XORed and written to the hot spare DU of another physical disk.
  • the ID of the DU of the physical disk on which the data is written may be in the logic of the DU of the failed physical disk.
  • the modules are in the same column and are in different LDS.
  • the first physical disk is the physical disk where the PI resides.
  • the physical disk corresponding to the ID of the other D1 of the same LDS as P1 can be used to recover the data of the physical disk where P1 is located.
  • the layout template shown in Figure 8 includes five logic modules. For the first logic module, P1 and P2 and P3 are in the same LDS. The data of P2 and P3 can be read out, and the read data is XORed. Write to P4, replace PI with P4 in the layout table, P4 and P1 are in the same column in the first logic module, and P4 and P1 belong to different LDS.
  • FIG. 13 is a schematic diagram of a layout template after recovering a failed physical disk according to an embodiment of the present invention.
  • Pl, P4 and P2 are in the same LDS, P5 and PI are in the same column, the data of P4 and P2 can be read out, and the read data is XORed and then written into P5.
  • Pl, P5 and P4 are in the same LDS, P6 and PI are in the same column, the data of P5 and P4 can be read out, and the read data is XORed and then written into P6. Replace P1 with P6 in the layout template, as shown in Figure 13.
  • Pl, P6 and P5 are in the same LDS, P3 and PI are in the same column, the data of P6 and P5 can be read out, and the read data is XORed and then written into P3.
  • Pl, P3, and P6 are in the same LDS.
  • P2 and PI are in the same column.
  • the data of P3 and P6 can be read out, and the read data is XORed and written into P2.
  • the layout template includes a plurality of logic modules, each of which includes a failed physical disk, and in each of the logic modules, the identifiers of the DUs corresponding to the failed physical disks are in the same column.
  • the physical disk corresponding to the DU identifier can be seen as the second physical disk.
  • the physical disk where P4 resides can be regarded as the second physical disk.
  • the physical disk where P5 is located can be regarded as the second physical disk.
  • another physical disk may be allowed to fail. If the third physical disk fails after the first physical disk fails, the identifiers of the DUs of other physical disks that are in the same LDS as the DUs of the third physical disk are found from the logical modules of the layout template. The read data corresponding to the identifier of the DU of the other physical disk is XORed and written into the hot spare DU of the fourth physical disk; in the layout template, the DU of the third physical disk is replaced with the identifier of the DU of the fourth physical disk.
  • the identifier of the DU of the fourth physical disk and the identifier of the DU of the third physical disk are in the same column in the logic module, and the identifiers of the DUs of the third physical disk and the fourth physical disk belong to different LDSs. If the identifier of the DU corresponding to the third physical disk includes two in one logical module, in the logical module, the identifier of the DU of the other physical disk that is in the same LDS as the identifier of the DU of the third physical disk is read out.
  • the data After the data is XORed, it is written into the DU of the fifth physical disk, and the identifier of the DU of the fifth physical disk is the DU of the physical disk in the logical module except the ID of the DU of the third physical disk. Other identifiers than the logo.
  • the first physical disk is the physical disk where P1 is located
  • the third physical disk is the physical disk where P2 is located.
  • the foregoing method can still be used for fault recovery, that is, the layout template is found to be in the same LDS as P1.
  • the ID of the DU of other physical disks will be read from the DU of other physical disks
  • the data is XORed and written to the hot spare DU of the physical disk where the PI is in the corresponding position.
  • the layout template changes. Therefore, after the physical disk where P2 is located changes, the data recovery needs to be based on the changed layout template, that is, based on Figure 13. Template.
  • P2, P4, and P3 are in the same LDS, P5 and
  • FIG. 14 shows In the embodiment of the present invention, a schematic diagram of a layout template when data is reconstructed after a physical disk in which P1 and P2 are located is faulty.
  • P5, P4 and P2 are in the same LDS, P3 and P2 are in the same column, the data of P5 and P4 can be read out, and the read data is XORed and then written into P3.
  • P6, P3 and P2 are in the same LDS, P4 and P2 are in the same column.
  • the data of P6 and P3 can be read out, and the read data is XORed and written into P4.
  • P2, P3 and P4 are in the same LDS, P6 and P2 are in the same column.
  • the data of P4 and P3 can be read out, and the read data is XORed and then written into P6.
  • P2, P3, and P6 are in the same LDS, and the P2 in the layout template that previously replaced P1 is in the same column as the P2 in the layout template.
  • any layout template can be used.
  • the data of two other DUs is read and XORed into another DU.
  • the data of P3 and P6 can be read and XORed and written into P4, and P4 and P5 will be read.
  • the data is read out and XORed and written into P3, and P2 is replaced with P3 and P4 in the layout template.
  • the data of P3 and P6 is read out and XORed and written into P5, the data of P4 and P5 is read out and XORed and written into P6, and P2 is replaced by P5 and P6 in the layout template.
  • the data of the physical disk where P2 resides is restored through other physical disks, and the restored data is stored in the DU of other physical disks.
  • each of the logic modules includes a failed physical disk
  • the DU of the third physical disk is in the same column as the DU.
  • the physical disk corresponding to the identifier can be regarded as the fourth physical disk.
  • the physical disk where P5 resides can be regarded as the fourth physical disk.
  • the physical disk where P3 resides can be regarded as the fourth physical disk.
  • the physical disk where P5, P4, P6 or P3 resides can be regarded as the fifth physical disk.
  • the first physical disk, the second physical disk, the third physical disk, the fourth physical disk, and the fifth physical disk are constituent physical disks in the same RAID.
  • the method provided by the embodiment of the present invention because the granularity of the data storage is DU, there is a dedicated hot standby DU in the physical disk for storing data recovered by other physical disks, which may allow multiple physical disks to fail.
  • the recovery method after the failure is the same as the previous method.
  • the method, the device and the system provided by the embodiments of the present invention generate a layout template in advance.
  • a physical disk fails, find out from the layout template that the identifier of the DU of the failed physical disk is in the same LDS.
  • the ID of the DU of the disk is read from the DU corresponding to the ID of the DU of the other physical disk of the same LDS as the DU of the failed physical disk, and the read data is XORed and then written in the layout template.
  • the ID of the DU corresponding to the failed physical disk is in the DU corresponding to the ID of the DU of another physical disk in the same column.
  • the layout template includes m logic modules, each logic module includes 2 LDSs, and each LDS includes (m+1)/2 or (m-1)/2 DUs.
  • Each DU belongs to a different physical disk. Since the logic module includes a plurality of DUs of the physical disks in which the identifiers of the DUs corresponding to the failed physical disks are in the same column, there are multiple identifiers, so that the data can be written into the DUs corresponding to the different physical disks. Instead of writing to the same hot spare physical disk, the time required to write data is reduced, the time required for RAID reconstruction recovery is shortened, and the reconstruction speed is reduced and reduced. The probability of double disk failure increases the reliability of the RAID system.
  • the RAID reconstruction method provided by the implementation of the present invention re-inserts the normal disk for replacing the failed first physical disk after the reconstruction is completed, and then needs to perform copyback, that is, in the hot standby DU of the second physical disk.
  • the data is back copied to the reinserted physical disk used to replace the first physical disk, and the layout template is restored to the state it was in before the replacement. For example, as shown in Figure 8.
  • FIG. 15 is a schematic structural diagram of Embodiment 1 of a RAID reconstruction apparatus according to the present invention.
  • the apparatus includes: a storage module 11, a first processing module 12, and a second processing module 13.
  • the storage module 11 is configured to store a layout template, where the layout template includes m logic modules, each logic module includes two LDSs, and each LDS includes an identifier of (m+1)/2 or (m-1)/2 DUs.
  • the DUs corresponding to the IDs of the DUs in each LDS belong to different physical disks, and the identifiers of the DUs included in each LDS in the same logical module are different.
  • the first processing module 12 is connected to the storage module 11 for finding that other physical components of the layout template stored by the storage module 11 are in the same LDS as the DU of the first physical disk when the first physical disk fails.
  • the DU of the disk is XORed from the data read from the DU of the other physical disk and written into the hot spare DU of the second physical disk.
  • the second processing module 13 is configured to replace the identifier of the DU of the first physical disk with the identifier of the DU of the second physical disk in the layout template; the identifier of the DU of the second physical disk and the identifier of the DU of the first physical disk are In the same logic module Columns, the identifiers of the DUs of the first physical disk and the second physical disk belong to different LDSs.
  • the first processing module 12 is further configured to: when the third physical disk fails after the first physical disk fails, find the other LDSs of the third physical disk from the respective logical modules of the layout template.
  • the DU of the physical disk is XORed from the data read by the DU of the other physical disk and written into the hot spare DU of the fourth physical disk.
  • the second processing module 13 may be further configured to: in the layout template, replace the identifier of the DU of the third physical disk with the identifier of the DU of the fourth physical disk; the identifier of the DU of the fourth physical disk and the identifier of the DU of the third physical disk In the logic module, at the same time; and for the case where the identifier of the DU corresponding to the third physical disk in one logical module includes two, the DU of the other physical disk that is in the same LDS as the DU of the third physical disk After the XOR data is XORed, it is written into the DU of the fifth physical disk, and the ID of the DU of the fifth physical disk is the physical disk of the same LDS except the ID of the DU of the third physical disk. Other identifiers other than the DU's logo.
  • FIG. 16 is a schematic structural diagram of Embodiment 2 of a RAID reconstruction apparatus according to the present invention.
  • Embodiment 2 of a RAID reconstruction apparatus according to the present invention.
  • the RAID reconstruction device also includes a creation module 14 that generates a layout template when the RAID is created.
  • the creating module 14 may be specifically configured to arrange the identifiers of the DUs of the N physical disks according to a preset order, and divide into two rows.
  • each row includes an identifier of N/2 DUs;
  • one row includes ((N+1) /2) - the identifier of one DU and the identifier of one virtual DU, and the other row includes the identifier of ((N+1) /2) DUs;
  • Identification when N is an even number, the order of the remaining DUs is sequentially shifted (N-1 times, generating (N-1) logical modules; when N is an odd number, the identification of the remaining DUs is sequentially shifted N times, generating N logic modules, and the columns of the identifiers of the virtual DUs are included in the respective logic modules.
  • the embodiment may further include a third processing module 15, a third processing module and the storage module 11, the first processing module 12, and
  • the second processing module 13 is connected to: after the processing of the first processing module 12 and the second processing module 13 is completed, copying data in the hot spare DU of the second physical disk to the reinserted for replacing the first physical In the physical disk of the disk, and restore the layout template to no replacement The shape State.
  • the embodiment of the invention further provides a RAID reconstruction system, which comprises the RAID reconstruction device in the foregoing various embodiments.
  • the RAID reconstruction device can be connected to each physical disk to process various physical disks in the RAID.
  • the device and the system provided by the embodiments of the present invention generate a layout template in advance.
  • the layout template finds other physical disks of the same LDS as the DU of the failed physical disk.
  • the identifier of the DU reads data from the DU corresponding to the identifier of the DU of the other physical disk of the same LDS as the DU of the failed physical disk, and writes the read data to the layout template.
  • the ID of the DU corresponding to the failed physical disk is in the DU corresponding to the ID of the DU of the other physical disk in the same column.
  • the layout template includes m logic modules, each of which includes 2 LDSs, each of which includes (m+1)/2 or (m-1)/2 DUs, each of which belongs to a different physical disk. Since the logic module includes a plurality of DUs of the physical disks in which the identifiers of the DUs corresponding to the failed physical disks are in the same column, there are multiple identifiers, so that the data can be written into the DUs corresponding to the different physical disks. Instead of writing to the same hot spare physical disk, the time required to write data is reduced, the time required for RAID reconstruction recovery is shortened, and the reconstruction speed is reduced and reduced. The probability of double disk failure increases the reliability of the RAID system.

Abstract

本发明实施例提供一种RAID重构方法、装置及系统,其中方法包括:当第一物理磁盘出现故障时,从预先生成的布局模板的各个逻辑模块中找出与第一物理磁盘的DU处于同一LDS的其他物理磁盘的DU,将从其他物理磁盘的DU读出的数据进行异或后写入第二物理磁盘的热备DU中;在布局模板中,用第二物理磁盘的DU的标识替换第一物理磁盘的DU的标识;布局模板中每个LDS中的DU的标识对应的DU均属于不同的物理磁盘,并且同一个逻辑模块中的每个LDS中包含的DU的标识均不相同;第一物理磁盘和第二物理磁盘的DU的标识属于不同的LDS。本发明能够减少写入数据所需的时间,缩短了RAID重构恢复所需的时间,提高了重构速度。

Description

廉价磁盘冗余阵列重构方法、 装置及系统 本申请要求于 2010 年 10 月 19 日提交中国专利局、 申请号为 201010516539.4、 发明名称为"廉价磁盘冗余阵列重构方法、 装置及系统"的中 国专利申请的优先权, 其全部内容通过引用结合在本申请中。
技术领域
本发明实施例涉及存储技术领域, 尤其涉及一种廉价磁盘冗余阵列 ( Redundant Array of Inexpensive Disks , 简称 RAID )重构方法、 装置及系统。 背景技术
在 RAID技术中,可以直接在物理磁盘上存储和读取数据。在物理磁盘失 效或者处于半命状态时,可以启动重构,将失效或即将失效的物理磁盘中的数 据恢复到热备盘中,将物理磁盘的逻辑单元号( Logic Unit Number,简称 LUN ) 恢复为正常状态, 保证整个存储系统的可靠性。
现有的 RAID中, 如果有物理磁盘失效, 则从 RAID的其他物理磁盘上读 取数据, 将读取到的数据进行异或后写入热备盘。 这种方法存在一个问题: 从 多个物理磁盘上的数据都需要写入到一个热备盘中,热备盘的写入速度就成为 一个瓶颈, 从而导致 RAID重构速度艮慢。
发明内容
本发明实施例提供一种 RAID重构方法、 装置及系统, 用于解决现有技术 中有物理磁盘失效的情况下 RAID重构速度慢的问题, 提高 RAID重构速度。 本发明实施例提供了一种 RAID重构方法, 包括: 当第一物理磁盘出现故障时,从预先生成的布局模板的各个逻辑模块中找 出与所述第一物理磁盘的 DU处于同一 LDS的其他物理磁盘的 DU , 将从所述其 他物理磁盘的 DU读出的数据进行异或后写入第二物理磁盘的热备 DU中; 在所述布局模板中, 用第二物理磁盘的 DU的标识替换所述第一物理磁盘 的 DU的标识; 所述布局模板包括 m个逻辑模块, 每个逻辑模块包括 2个 LDS, 所述廉价 磁盘冗余阵列包括 N个物理磁盘, 当 N为偶数时, m取值为 N-1 , 每个逻辑磁盘 条带包括(m+1 ) /2个磁盘单元的标识; 或者当 N为奇数时, m取值为 N, 每个 逻辑磁盘条带包括( m- 1 ) /2个 DU的标识; 每个 LDS中的 DU的标识对应的 DU 均属于不同的物理磁盘, 并且同一个逻辑模块中的每个 LDS中包含的 DU的标 识均不相同;所述第二物理磁盘的 DU的标识和第一物理磁盘的 DU的标识在所 述逻辑模块中处于同一列, 并且第一物理磁盘和第二物理磁盘的 DU的标识属 于不同的 LDS。
本发明实施例还提供了一种 RAID重构装置, 包括:
存储模块, 用于存储布局模板, 所述布局模板包括 m个逻辑模块, 每个逻 辑模块包括 2个 LDS,所述廉价磁盘冗余阵列包括 N个物理磁盘,当 N为偶数时, m取值为 N-1 , 每个逻辑磁盘条带包括(m+1 ) /2个磁盘单元的标识; 或者当 N 为奇数时, m取值为 N, 每个逻辑磁盘条带包括(m-1 ) /2个 DU的标识; 每个 LDS中的 DU的标识对应的 DU均属于不同的物理磁盘, 并且同一个逻辑模块中 的每个 LDS中包含的 DU的标识均不相同; 当 N为偶数时, m取值为 N-1 ; 当 N 为奇数时, m取值为 N ; N为 RAID中的物理磁盘总数;
第一处理模块, 用于当第一物理磁盘出现故障时,从所述存储模块存储的 布局模板的各个逻辑模块中找出与所述第一物理磁盘的 DU处于同一 LDS的其 他物理磁盘的 DU,将从所述其他物理磁盘的 DU读出的数据进行异或后写入第 二物理磁盘的 DU中;
第二处理模块, 用于在所述布局模板中用所述第二物理磁盘的 DU的标识 替换所述第一物理磁盘的 DU的标识;所述第二物理磁盘的 DU的标识和第一物 理磁盘的 DU的标识在所述逻辑模块中处于同一列, 第一物理磁盘和第二物理 磁盘的 DU的标识属于不同的 LDS。
本发明实施例还提供了一种 RAID系统, 包括如前所述的 RAID重构装置。 本发明实施例提供的 RAID重构方法、 装置及系统, 预先生成布局模板, 当有某一物理磁盘出现故障时, 从布局模板中找出与出现故障的物理磁盘的 DU的标识处于同一 LDS的其他的物理磁盘的 DU的标识,从与出现故障的物 理磁盘的 DU的标识处于同一 LDS的其他的物理磁盘的 DU的标识对应的 DU 中读出数据,将读出的数据异或后写入在布局模板中与出现故障的物理磁盘对 应的 DU的标识处于同一列的另一物理磁盘的 DU的标识对应的 DU中。布局 模板包括 m个逻辑模块,每个逻辑模块包括 2个 LDS ,每个 LDS包括 ( m+1 ) 12或者 ( m-1 ) 12个 DU, 每个 DU属于不同的物理磁盘。 由于逻辑模块包括 多个与发生故障的物理磁盘对应的 DU的标识处于同一列的物理磁盘的 DU的 标识就有多个,这样,写入数据时分别就可以写入不同物理磁盘对应的 DU中 , 而不是写入到同一块热备物理磁盘中, 与现有技术相比, 减少了写入数据所需 的时间, 缩短了 RAID重构恢复所需的时间, 提高了重构速度, 减小双盘失效 的概率, 提高 RAID系统的可靠性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案, 下面将对 实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地, 下 面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不 付出创造性劳动性的前提下, 还可以根据这些附图获得其他的附图。 图 1所示为本发明 RAID重构方法实施例一的流程图; 图 2所示为本发明实施例中物理磁盘的空间划分示意图; 图 3所示为将 6个物理磁盘对应的 DU的标识以各个标识中的数字的大小顺 序排列的示意图; 图 4所示为对如图 3所示的 DU进行第一次轮转后的排列示意图; 图 5所示为对如图 3所示的 DU进行第二次轮转后的排列示意图; 图 6所示为对如图 3所示的 DU进行第三次轮转后的排列示意图; 图 7所示为对如图 3所示的 DU进行第四次轮转后的排列示意图; 图 8所示为本发明实施例中包括 6个物理磁盘的情况下形成的布局模板的 示意图; 图 9所示为本发明实施例中包括 N个物理磁盘的情况下形成的布局模板的 示意图; 图 10所示为本发明实施例中将 10个物理磁盘对应的 DU的标识以各个标识 中的数字的大小顺序排列的示意图; 图 11所示为本发明实施例中包括 9个物理磁盘的情况下生成的 9个逻辑模 块的示意图; 图 12所示为本发明实施例中包括 9个物理磁盘的情况下生成的布局模板的 示意图; 图 13所示为本发明实施例中对发生故障的物理磁盘进行恢复后的布局模 板示意图; 图 14所示为本发明实施例中 P1和 P2所在的物理磁盘均出现故障后进行数 据重构时的布局模板示意图; 图 15所示为本发明 RAID重构装置实施例一的结构示意图;
图 16所示为本发明 RAID重构装置实施例二的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚, 下面将结合本发明 实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然, 所描述的实施例是本发明一部分实施例, 而不是全部的实施例。基于本发明中 的实施例 ,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其 他实施例, 都属于本发明保护的范围。
如图 1所示为本发明 RAID重构方法实施例一的流程图, 包括:
步骤 101、 当第一物理磁盘出现故障时, 从预先生成的布局模板的各个逻 辑模块中找出与第一物理磁盘的磁盘单元( Disk Unit, 简称 DU )处于同一 LDS 的其他物理磁盘的 DU,将从其他物理磁盘的 DU读出的数据进行异或后写入第 二物理磁盘的热备 DU中。
步骤 102、在布局模板中, 用第二物理磁盘的 DU的标识替换第一物理磁盘 的 DU的标识; 第二物理磁盘的 DU的标识和第一物理磁盘的 DU的标识在逻辑 模块中处于同一列, 第一物理磁盘和第二物理磁盘的 DU的标识属于不同的 LDS。
其中, 布局模板包括 m个逻辑模块, 每个逻辑模块包括 2个逻辑磁盘条带 ( Logic Disk Stripe, 简称 LDS ) , 所述廉价磁盘冗余阵列包括 Ν个物理磁盘, 当 Ν为偶数时, m取值为 N-1 , 每个逻辑磁盘条带包括(m+1 ) /2个磁盘单元的 标识; 或者当 N为奇数时, m取值为 N, 每个逻辑磁盘条带包括(m-1 ) /2个磁 盘单元的标识; 每个 LDS中的 DU的标识对应的 DU均属于不同的物理磁盘, 并 且同一个逻辑模块中的每个 LDS中包含的 DU的标识均不相同, N为 RAID中物 理磁盘的数目, 较佳地, N可以大于或等于 6。
在本发明的实施例中, 物理磁盘划分为多个区域, 如图 2所示为本发明实 施例中物理磁盘的空间划分示意图, 物理磁盘包括数据空间、热备空间和备份 ( Data Backup, 简称 DB ) 空间。 数据空间用于存储正常的数据。 热备空间用 于存储从其他失效盘恢复出来的数据。 备份空间用于存储系统的 DB压缩包。 每一个存储系统都需要一个文件记录和存放当前的系统状态、 配置数据等, 这 些系统状态、 配置数据可以统称为 DB。 为了保证这个文件的安全性, 在 DB保 存时会将它使用压缩算法进行压缩, 再存入棵盘, 压缩好的 DB文件就是 DB压 缩包。 本发明的实施例中, 数据空间、 热备空间和备份空间均包括多个 DU, 也就是说, 本发明的实施例中, 数据存储和读取是以 DU为粒度进行的。 热备 空间的 DU称为热备 DU。
在本发明的实施例中, 可以在创建 RAID时预先生成一个布局模板。 通常 在需要组建 RAID时需要确定该 RAID包括哪些物理磁盘,确定包括哪些物理磁 盘后, 用于管理各个物理磁盘的装置可以在创建 RAID时生成一个布局模板。 生成布局模板的方法具体可以包括: 将 N个物理磁盘的 DU的标识依照预设顺 序排列, 并且分成两行, 如果 N为偶数, 那么每行包括 N/2个 DU的标识; 如果 N为奇数, 那么一行包括( ( N+1 ) /2 ) -1个 DU的标识和一个虚拟的 DU的标识, 另一行包括( (N+1 ) /2 )个 DU的标识;
固定第一 DU的标识, 当 N为偶数时, 将其余 DU的标识顺序移位(N-1次, 生成(N-1 )个逻辑模块; 当 N为奇数时, 将其余 DU的标识顺序移位 N次, 生 成 N个逻辑模块, 并去掉各个逻辑模块中包含有所述虚拟的 DU的标识的列。
下面详细描述该布局模板的生成方法。
RAID可以包括多个物理磁盘, 假设 RAID包括 6个物理磁盘, 以 Pl、 P2、 P3、 P4、 P5和 P6分别作为各个物理磁盘上的 DU的标识。 将这 6个物理磁盘对 应的 DU的标识依照预设顺序排列, 例如, 预设顺序可以是各个标识中的数字 的大小顺序, 或者, 也可以是各个标识中字母的先后顺序。 将排序后的各个 DU的标识并分成两行, 每行均包括 3个 DU的标识, 如图 3所示为将 6个物理磁 盘对应的 DU的标识以各个标识中的数字的大小顺序排列的示意图。 然后, 固定 P1的位置不动, 将其他各个 DU的标识的位置依次轮转, 也可 以叫做顺序移位, 即: P4移动到 P2的位置, P2移动到 P3的位置, P3移动到 P6 的位置, P6移动到 P5的位置, P5移动到 P4的位置。 通过这种方式, 得到第一 次轮转后的 DU排列示意图, 如图 4所示。
然后, 继续固定 P1的位置不动, 将其他各个 DU的标识的位置依次轮转, 得到第二次轮转后的磁盘排列示意图, 如图 5所示。
继续固定 P1的位置不动, 将其他各个 DU的标识的位置依次轮转, 以此类 推,分别可以得到第三次和第四次轮转后的 DU的标识的排列示意图如图 6和图 7所示。
初始形成的 DU的标识排列以及各次轮转后的 DU的标识的排列分别形成 一个逻辑模块, 每个逻辑模块包括 2个 LDS , 每个 LDS包括 3个 DU的标识, 各 个 DU的标识对应的 DU分别属于不同的物理磁盘。
各次轮转后的 DU的标识排列以及初始形成的 DU的标识的排列形成的逻 辑模块可以组成一个布局模板,如图 8所示为本发明实施例中包括 6个物理磁盘 的情况下形成的布局模板的示意图, 该布局模板包括 5个逻辑模块, 每一行 DU 的标识形成一个 LDS, 每一列 DU的标识对应的 DU形成一个虚拟磁盘。 对于用 户来说, 用户看到的是这三个虚拟磁盘, 实际上这三个虚拟盘是由分散在各个 物理磁盘上的 DU组成的。
上述例子中以 RAID包括 6个物理磁盘为例进行介绍 ,如果 RAID包括 N (假 设 N为偶数) 个物理磁盘, 则可以如图 9所示的方式进行轮转产生布局模板, 如图 9所示为本发明实施例中包括 N个物理磁盘的情况下生成布局模板的示意 图, 具体的生成方法与前述 6个物理磁盘的例子相同, 不再贅述。
下面再以 RAID中包括奇数个物理磁盘为例来说明。 假设 RAID包括 9个物 理磁盘, 以 Pl、 P2、 P3、 P4、 P5、 P6、 P7、 P8和 P9分另' J作为各个物理磁盘上 的 DU的标识。 为例进行后续的轮转的步骤, 可以增加一个虚拟的 DU的标识 P10, 将这 10个物理磁盘对应的 DU的标识依照预设顺序排列, 例如, 预设顺序 可以是各个标识中的数字的大小顺序。将排序后的各个 DU的标识并分成两行, 每行均包括 5个 DU的标识, 其中, 第一行包括 5个物理磁盘的 DU的标识, 第二 行包括 4个物理磁盘的 DU的标识, 以及一个虚拟的 DU的标识。 如图 10所示为 本发明实施例中将 10个物理磁盘对应的 DU的标识以各个标识中的数字的大小 顺序排列的示意图。 需要说明的是, 图 10中, 虚拟的 DU的标识排序时排在了 最后一个, 因此, 虚拟的 DU的标识被分在第二行。 如果按照其他的方式排序, 虚拟的 DU的标识, 也可以在第一行。
固定 P1的位置不动, 将其他各个 DU的标识的位置依次轮转, 依次轮转 9 次之后, 生成 9个逻辑模块, 生成的 9个逻辑模块如图 11所示, 如图 11所示为本 发明实施例中包括 9个物理磁盘的情况下生成的 9个逻辑模块的示意图。再去掉 各个逻辑模块中含有 P10的列, 生成布局模板, 如图 12所示为本发明实施例中 包括 9个物理磁盘的情况下生成的布局模板的示意图。 当某个物理磁盘出现故 障时,就可以从布局模板中找出与出现故障的磁盘处于同一 LDS的其他物理磁 盘, 将从与出现故障的磁盘的 DU的标识处于同一 LDS的其他物理磁盘的 DU的 标识对应的 DU中读出的数据进行异或后写入另一物理磁盘的热备 DU中,写入 数据的物理磁盘的 DU的标识可以与发生故障的物理磁盘的 DU的标识在一个 逻辑模块中处于同一列, 并且分别处于不同的 LDS。 例如, 第一物理磁盘是 PI所在的物理磁盘, 可以通过与 P1处于相同 LDS 的其他 DU的标识对应的物理磁盘来恢复 P1所在的物理磁盘的数据。
如图 8所示的布局模板包括 5个逻辑模块, 对于第一个逻辑模块来说, P1 和 P2以及 P3处于同一 LDS,可以将 P2和 P3的数据读出,将读出的数据异或后写 入 P4中, 在布局表中用 P4替换 PI , P4与 P1在第一个逻辑模块中处于同一列, 并且 P4和 P1属于不同的 LDS。如图 13所示为本发明实施例中对发生故障的物理 磁盘进行恢复后的布局模板示意图。
对于第二个逻辑模块来说, Pl、 P4和 P2处于同一个 LDS, P5与 PI处于同 一列, 可以将 P4和 P2的数据读出, 将读出的数据进行异或后写入 P5中, 在布 局模板中用 P5替换 P1 , 如图 13所示。
对于第三个逻辑模块来说, Pl、 P5和 P4处于同一个 LDS, P6与 PI处于同 一列, 可以将 P5和 P4的数据读出, 将读出的数据进行异或后写入 P6中, 在布 局模板中用 P6替换 P1 , 如图 13所示。
对于第四个逻辑模块来说, Pl、 P6和 P5处于同一个 LDS, P3与 PI处于同 一列, 可以将 P6和 P5的数据读出, 将读出的数据进行异或后写入 P3中, 在布 局模板中用 P3替换 P1 , 如图 13所示。
对于第五个逻辑模块来说, Pl、 P3和 P6处于同一个 LDS, P2与 PI处于同 一列, 可以将 P3和 P6的数据读出, 将读出的数据进行异或后写入 P2中, 在布 局模板中用 P2替换 P1 , 如图 13所示。
经过上述的处理后, 分别通过其他的物理磁盘的 DU中的数据恢复出了 P1 所在的物理磁盘上的数据, 恢复出的数据分别写入 P2、 P3、 P4、 P5和 P6中, 而不是将恢复出的数据写入同一个磁盘, 提高了数据写入的速度, 能够缩短 RAID故障恢复的时间, 从而减小双盘失效的概率, 提高 RAID系统的可靠性。 在前述各实施例中, 由于布局模板包括多个逻辑模块,每个逻辑模块中均 包括出现故障的物理磁盘,在各个逻辑模块中, 与出现故障的物理磁盘对应的 DU的标识处于同一列的 DU的标识所对应的物理磁盘均可以看 #丈是第二物理 磁盘。 例如, 对于第一逻辑模块来说, P4所在的物理磁盘可以看做第二物理磁 盘。 对于第二逻辑模块来说, P5所在的物理磁盘可以看做第二物理磁盘。
在本发明的实施例中,在第一物理磁盘重构完成后下(即第一物理磁盘故 障恢复后), 还可以允许另一个物理磁盘出现故障。 如果第一物理磁盘故障恢 复后, 第三物理磁盘出现故障, 则从布局模板的各个逻辑模块中找出与第三物 理磁盘的 DU的标识处于同一 LDS的其他物理磁盘的 DU的标识, 将从其他物理 磁盘的 DU的标识对应的读出的数据进行异或后写入第四物理磁盘的热备 DU 中;布局模板中,用第四物理磁盘的 DU的标识替换第三物理磁盘的 DU的标识; 所述第四物理磁盘的 DU的标识和第三物理磁盘的 DU的标识在所述逻辑模块 中处于同一列, 第三物理磁盘和第四物理磁盘的 DU的标识属于不同的 LDS。 如果一个逻辑模块中, 与第三物理磁盘对应的 DU的标识包括两个, 则在该逻 辑模块中, 将与第三物理磁盘的 DU的标识处于同一 LDS的其他物理磁盘的 DU 的标识读出的数据进行异或后, 写入第五物理磁盘的 DU中, 第五物理磁盘的 DU的标识是在该逻辑模块中除了与第三物理磁盘的 DU的标识处于同一 LDS 的物理磁盘的 DU的标识之外的其他的标识。
例如,第一物理磁盘是 P1所在的物理磁盘,第三物理磁盘是 P2所在的物理 磁盘, 这种情况下仍然可以采用前述方法来进行故障恢复, 即从布局模板中找 出与 P1处于同一 LDS的其他物理磁盘的 DU的标识,将从其他物理磁盘的 DU读 出的数据进行异或后写入与 PI处于相应位置的物理磁盘的热备 DU中。 由于 P1所在的物理磁盘发生故障后, 布局模板发生了变化, 所以, P2所在 的物理磁盘也发生变化后,进行数据恢复时需要基于发生了变化的布局模板进 行, 即, 基于如图 13所示的模板。
图 13中, 对于第一个逻辑模块来说, P2、 P4和 P3处于同一个 LDS , P5与
P2处于同一列, 可以将 P4和 P3的数据读出, 将读出的数据进行异或后写入 P5 中, 在布局模板中用 P5替换 P2, 如图 14所示, 图 14所示为本发明实施例中 P1 和 P2所在的物理磁盘均出现故障后进行数据重构时的布局模板示意图。
对于第二个逻辑模块来说, P5、 P4和 P2处于同一个 LDS , P3与 P2处于同 一列, 可以将 P5和 P4的数据读出, 将读出的数据进行异或后写入 P3中, 在布 局模板用 P3替换 P2, 如图 14所示。
对于第三个逻辑模块来说, P6、 P3和 P2处于同一个 LDS , P4与 P2处于同 一列, 可以将 P6和 P3的数据读出, 将读出的数据进行异或后写入 P4中, 在布 局模板中用 P4替换 P2, 如图 14所示。
对于第四个逻辑模块来说, P2、 P3和 P4处于同一个 LDS , P6与 P2处于同 一列, 可以将 P4和 P3的数据读出, 将读出的数据进行异或后写入 P6中, 在布 局模板中用 P6替换 P2, 如图 14所示。
对于第五个逻辑模块来说, P2、 P3和 P6处于同一个 LDS, 而布局模板中之 前替换了 P1的 P2与布局模板中本来就存在的 P2处于同一列, 这时可以将布局 模板中任意两个其他 DU的数据读出后进行异或写入另外一个 DU中, 例如, 如 图 14所示, 可以将 P3和 P6的数据读出并进行异或后写入 P4中, 将 P4和 P5的数 据读出并进行异或后写入 P3中, 在布局模板中用 P3和 P4替换了 P2。 或者, 可 以将 P3和 P6的数据读出并进行异或后写入 P5中, 将 P4和 P5的数据读出并进行 异或后写入 P6中, 在布局模板中用 P5和 P6替换 P2。
通过上述的步骤, P2所在的物理磁盘的数据分别通过其他各个物理磁盘进 行了恢复, 恢复后的数据分别存储在其他物理磁盘的 DU中。
在前述各实施例中, 由于布局模板包括多个逻辑模块,每个逻辑模块中均 包括出现故障的物理磁盘, 在各个逻辑模块中, 与第三物理磁盘的 DU的标识 处于同一列的 DU的标识所对应的物理磁盘均可以看做是第四物理磁盘。例如, 对于第一逻辑模块来说, P5所在的物理磁盘可以看做第四物理磁盘。对于第二 逻辑模块来说, P3所在的物理磁盘可以看做第四物理磁盘。对于第五个逻辑模 块, P5、 P4、 P6或 P3所在的物理磁盘可以看做是第五物理磁盘。 第一物理磁 盘、 第二物理磁盘、 第三物理磁盘、 第四物理磁盘和第五物理磁盘是同一个 RAID中的组成物理磁盘。
本发明实施例提供的方法, 由于数据存储的粒度是 DU, —个物理磁盘中 有专门的热备 DU用于存储其他物理磁盘恢复出的数据, 这样可以允许有多个 物理磁盘出现故障。 出现故障后的恢复方法与前述方法相同。
本发明实施例提供的方法、 装置及系统, 预先生成布局模板, 当有某一物 理磁盘出现故障时, 从布局模板中找出与出现故障的物理磁盘的 DU的标识处 于同一 LDS的其他的物理磁盘的 DU的标识, 从与出现故障的物理磁盘的 DU的 标识处于同一 LDS的其他的物理磁盘的 DU的标识对应的 DU中读出数据 , 将读 出的数据异或后写入在布局模板中与出现故障的物理磁盘对应的 DU的标识处 于同一列的另一物理磁盘的 DU的标识对应的 DU中。 布局模板包括 m个逻辑模 块, 每个逻辑模块包括 2个 LDS, 每个 LDS包括( m+1 ) /2或者( m-1 ) /2个 DU, 每个 DU属于不同的物理磁盘。 由于逻辑模块包括多个与发生故障的物理磁盘 对应的 DU的标识处于同一列的物理磁盘的 DU的标识就有多个, 这样, 写入数 据时分别就可以写入不同物理磁盘对应的 DU中, 而不是写入到同一块热备物 理磁盘中, 与现有技术相比, 减少了写入数据所需的时间, 缩短了 RAID重构 恢复所需的时间, 提高了重构速度, 减小双盘失效的概率, 提高 RAID系统的 可靠性。
本发明实施提供的 RAID重构方法, 在重构完成后, 重新插入用于替换发 生故障的第一物理磁盘的正常磁盘, 这时需要进行回拷, 即将第二物理磁盘的 热备 DU中的数据回拷到重新插入的用于替换第一物理磁盘的物理磁盘中, 并 将布局模板恢复到没有进行替换之前的状态。 例如图 8所示。
如图 15所示为本发明 RAID重构装置实施例一的结构示意图,该装置包括: 存储模块 11、第一处理模块 12和第二处理模块 13。存储模块 11用于存储布局模 板, 布局模板包括 m个逻辑模块, 每个逻辑模块包括 2个 LDS, 每个 LDS包括 ( m+1 ) /2或者 (m-1 ) /2个 DU的标识, 每个 LDS中的 DU的标识对应的 DU均 属于不同的物理磁盘, 并且同一个逻辑模块中的每个 LDS中包含的 DU的标识 均不相同, 当 N为偶数时, m取值为 N-1 ; 当 N为奇数时, m取值为 N ; N为 RAID 中的物理磁盘总数。 第一处理模块 12与存储模块 11连接, 用于当第一物理磁盘 出现故障时,从存储模块 11存储的布局模板的各个逻辑模块中找出与第一物理 磁盘的 DU处于同一 LDS的其他物理磁盘的 DU, 将从其他物理磁盘的 DU读出 的数据进行异或后写入第二物理磁盘的热备 DU中。 第二处理模块 13用于在布 局模板中用第二物理磁盘的 DU的标识替换第一物理磁盘的 DU的标识;第二物 理磁盘的 DU的标识和第一物理磁盘的 DU的标识在所述逻辑模块中处于同一 列, 第一物理磁盘和第二物理磁盘的 DU的标识属于不同的 LDS。
第一处理模块 12还可以用于当第一物理磁盘故障恢复后, 第三物理磁盘 出现故障时,从布局模板的各个逻辑模块中找出与所述第三物理磁盘的 DU处 于同一 LDS的其他物理磁盘的 DU,将从其他物理磁盘的 DU读出的数据进行 异或后写入第四物理磁盘的热备 DU中。 第二处理模块 13还可以用于在布局 模板中, 用第四物理磁盘的 DU的标识替换第三物理磁盘的 DU的标识; 第四 物理磁盘的 DU的标识和第三物理磁盘的 DU的标识在逻辑模块中处于同一 歹l ;并且用于对于一个逻辑模块中与第三物理磁盘对应的 DU的标识包括两个 的情况, 将与第三物理磁盘的 DU处于同一 LDS的其他物理磁盘的 DU读出 的数据进行异或后, 写入第五物理磁盘的 DU中, 第五物理磁盘的 DU的标识 是在该逻辑模块中除了与第三物理磁盘的 DU的标识处于同一 LDS的物理磁 盘的 DU的标识之外的其他的标识。
如图 16所示为本发明 RAID重构装置实施例二的结构示意图,该实施例中,
RAID重构装置还包括创建模块 14, 在创建 RAID时生成布局模板。 具体地, 创建模块 14具体可以用于将 N个物理磁盘的 DU的标识依照预设 顺序排列, 并且分成两行, 当 N为偶数时, 每行包括 N/2个 DU的标识; 当 N为 奇数时, 一行包括( (N+1 ) /2 ) -1个 DU的标识和一个虚拟的 DU的标识, 另 一行包括( (N+1 ) /2 ) 个 DU的标识; 固定第一 DU的标识, 当 N为偶数时, 将其余 DU的标识顺序移位(N-1次, 生成(N-1 )个逻辑模块; 当 N为奇数时, 将其余 DU的标识顺序移位 N次, 生成 N个逻辑模块, 并去掉各个逻辑模块中包 含有所述虚拟的 DU的标识的列。 该实施例还可以包括第三处理模块 15, 第三处理模块与存储模块 11、第一 处理模块 12和第二处理模块 13连接,用于在第一处理模块 12和第二处理模块 13 的处理完成后, 将第二物理磁盘的热备 DU中的数据回拷到重新插入的用于替 换第一物理磁盘的物理磁盘中, 并将布局模板恢复到没有进行替换之前的状 态。
RAID重构装置中各个模块的工作原理与前述方法实施例部分描述, 不再 贅述。
本发明实施例还提供一种 RAID重构系统 , 包括前述各个实施例中的 RAID 重构装置。 该 RAID重构装置可以与各个物理磁盘连接, 实现对 RAID中各个物 理磁盘的处理。
本发明实施例提供的装置及系统,预先生成布局模板, 当有某一物理磁盘 出现故障时, 从布局模板中找出与出现故障的物理磁盘的 DU的标识处于同一 LDS的其他的物理磁盘的 DU的标识,从与出现故障的物理磁盘的 DU的标识处 于同一 LDS的其他的物理磁盘的 DU的标识对应的 DU中读出数据, 将读出的数 据异或后写入在布局模板中与出现故障的物理磁盘对应的 DU的标识处于同一 列的另一物理磁盘的 DU的标识对应的 DU中。 布局模板包括 m个逻辑模块, 每 个逻辑模块包括 2个 LDS, 每个 LDS包括(m+1 ) /2或者(m-1 ) /2个 DU, 每个 DU属于不同的物理磁盘。 由于逻辑模块包括多个与发生故障的物理磁盘对应 的 DU的标识处于同一列的物理磁盘的 DU的标识就有多个, 这样, 写入数据时 分别就可以写入不同物理磁盘对应的 DU中, 而不是写入到同一块热备物理磁 盘中, 与现有技术相比, 减少了写入数据所需的时间, 缩短了 RAID重构恢复 所需的时间, 提高了重构速度, 减小双盘失效的概率, 提高 RAID系统的可靠 性。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可 以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存 储介质中, 该程序在执行时, 执行包括上述方法实施例的步骤; 而前述的存储 介质包括: ROM、 RAM, 磁碟或者光盘等各种可以存储程序代码的介质。 最后应说明的是: 以上实施例仅用以说明本发明的技术方案, 而非对其限 制; 尽管参照前述实施例对本发明进行了详细的说明, 本领域的普通技术人员 应当理解: 其依然可以对前述各实施例所记载的技术方案进行修改, 或者对其 中部分技术特征进行等同替换; 而这些修改或者替换, 并不使相应技术方案的 本质脱离本发明各实施例技术方案的精神和范围。

Claims

权 利 要 求
1、 一种廉价磁盘冗余阵列重构方法, 其特征在于, 包括:
当第一物理磁盘出现故障时,从预先生成的布局模板的各个逻辑模块中找 出与所述第一物理磁盘的磁盘单元处于同一逻辑磁盘条带的其他物理磁盘的 磁盘单元,将从所述其他物理磁盘的磁盘单元读出的数据进行异或后写入第二 物理磁盘的热备磁盘单元中;
在所述布局模板中 ,用第二物理磁盘的磁盘单元的标识替换所述第一物理 磁盘的磁盘单元的标识;
所述布局模板包括 m个逻辑模块, 每个逻辑模块包括 2个逻辑磁盘条带, 所述廉价磁盘冗余阵列包括 N个物理磁盘, 当 N为偶数时, m取值为 N-1 , 每个 逻辑磁盘条带包括(m+1 ) /2个磁盘单元的标识; 或者当 N为奇数时, m取值 为 N, 每个逻辑磁盘条带包括(m-l ) /2个磁盘单元的标识; 每个逻辑磁盘条带 中的磁盘单元的标识对应的磁盘单元均属于不同的物理磁盘,并且同一个逻辑 模块中的每个逻辑磁盘条带中包含的磁盘单元的标识均不相同;所述第二物理 磁盘的磁盘单元的标识和第一物理磁盘的磁盘单元的标识在所述逻辑模块中 处于同一列,并且第一物理磁盘和第二物理磁盘的磁盘单元的标识属于不同的 逻辑磁盘条带。
2、根据权利要求 1所述的方法, 其特征在于, 如果第一物理磁盘故障恢复 后, 第三物理磁盘出现故障, 则从所述布局模板的各个逻辑模块中找出与所述 第三物理磁盘的磁盘单元处于同一逻辑磁盘条带的其他物理磁盘的磁盘单元, 将从所述其他物理磁盘的磁盘单元中读出的数据进行异或后写入第四物理磁 盘的磁盘单元中; 在所述布局模板中, 用所述第四物理磁盘的磁盘单元的标识 替换所述第三物理磁盘的磁盘单元的标识;所述第四物理磁盘的磁盘单元的标 识和第三物理磁盘的磁盘单元的标识在所述逻辑模块中处于同一列;所述第三 物理磁盘和第四物理磁盘的磁盘单元的标识属于不同的逻辑磁盘条带;
如果一个逻辑模块中与第三物理磁盘对应的磁盘单元的标识包括两个,则 在该逻辑模块中,将与第三物理磁盘的磁盘单元的标识处于同一逻辑磁盘条带 的其他物理磁盘的磁盘单元的标识对应的磁盘单元读出的数据进行异或后,写 入第五物理磁盘的磁盘单元中,所述第五物理磁盘的磁盘单元的标识是在所述 逻辑模块中除了与第三物理磁盘的磁盘单元的标识处于同一逻辑磁盘条带的 物理磁盘的磁盘单元的标识之外的其他的标识。
3、根据权利要求 2所述的方法, 其特征在于, 还包括在创建廉价磁盘冗余 阵列时生成布局模板。
4、 根据权利要求 3所述的方法, 其特征在于, 生成布局模板包括: 将 N个物理磁盘的磁盘单元的标识依照预设顺序排列, 并且分成两行, 如 果 N为偶数, 那么每行包括 N/2个磁盘单元的标识; 如果 N为奇数, 那么一行包 括( (N+1 ) /2 ) -1个磁盘单元的标识和一个虚拟的磁盘单元的标识, 另一行 包括( (N+1 ) /2 )个磁盘单元的标识;
固定第一磁盘单元的标识, 当 N为偶数时, 将其余磁盘单元的标识顺序移 位(N-1次, 生成(N-1 )个逻辑模块; 当 N为奇数时, 将其余磁盘单元的标识 顺序移位 N次, 生成 N个逻辑模块, 并去掉各个逻辑模块中包含有所述虚拟的 磁盘单元的标识的列。
5、 根据权利要求 1-4中任一权利要求所述的方法, 其特征在于, 还包括: 在廉价磁盘冗余阵列重构完成后,将所述第二物理磁盘的热备磁盘单元中的数 据回拷到重新插入的用于替换所述第一物理磁盘的物理磁盘中,并将所述布局 模板恢复到没有进行替换之前的状态。
6、 一种廉价磁盘冗余阵列重构装置, 其特征在于, 包括:
存储模块, 用于存储布局模板, 所述布局模板包括 m个逻辑模块, 每个逻 辑模块包括 2个逻辑磁盘条带, 所述廉价磁盘冗余阵列包括 N个物理磁盘, 当 N 为偶数时, m取值为 N-1 , 每个逻辑磁盘条带包括 (m+l)/2; 或者当 N为奇数时, m取值为 N, 每个逻辑磁盘条带包括(m-1 ) /2个磁盘单元的标识; 每个逻辑磁 盘条带中的磁盘单元的标识对应的磁盘单元均属于不同的物理磁盘,并且同一 个逻辑模块中的每个逻辑磁盘条带中包含的磁盘单元的标识均不相同;
第一处理模块, 用于当第一物理磁盘出现故障时,从所述存储模块存储的 布局模板的各个逻辑模块中找出与所述第一物理磁盘的磁盘单元处于同一逻 辑磁盘条带的其他物理磁盘的磁盘单元,将从所述其他物理磁盘的磁盘单元读 出的数据进行异或后写入第二物理磁盘的磁盘单元中;
第二处理模块,用于在所述布局模板中用所述第二物理磁盘的磁盘单元的 标识替换所述第一物理磁盘的磁盘单元的标识;所述第二物理磁盘的磁盘单元 的标识和第一物理磁盘的磁盘单元的标识在所述逻辑模块中处于同一列,第一 物理磁盘和第二物理磁盘的磁盘单元的标识属于不同的逻辑磁盘条带。
7、根据权利要求 6所述的装置, 其特征在于, 所述第一处理模块还用于当 第一物理磁盘故障恢复后, 第三物理磁盘出现故障时,从所述布局模板的各个 逻辑模块中找出与所述第三物理磁盘的磁盘单元处于同一逻辑磁盘条带的其 他物理磁盘的磁盘单元,将从所述其他物理磁盘的磁盘单元读出的数据进行异 或后写入第四物理磁盘的热备磁盘单元中; 所述第二处理模块还用于在所述布局模板中 ,用所述第四物理磁盘的磁盘 单元的标识替换所述第三物理磁盘的磁盘单元的标识;所述第四物理磁盘的磁 盘单元的标识和第三物理磁盘的磁盘单元的标识在所述逻辑模块中处于同一 列;并且用于对于一个逻辑模块中与第三物理磁盘对应的磁盘单元的标识包括 两个的情况,将第三物理磁盘的磁盘单元处于同一逻辑磁盘条带的其他物理磁 盘的磁盘单元读出的数据进行异或后, 写入第五物理磁盘的磁盘单元中, 第五 物理磁盘的磁盘单元的标识是在所述逻辑模块中除了与第三物理磁盘的磁盘 单元的标识处于同一逻辑磁盘条带的物理磁盘的磁盘单元的标识之外的其他 的标识。
8、 根据权利要求 7所述的装置, 其特征在于, 还包括创建模块, 用于在创 建廉价磁盘冗余阵列时生成布局模板。
9、 根据权利要求 8所述的装置, 其特征在于, 所述创建模块具体用于将 N 个物理磁盘的磁盘单元的标识依照预设顺序排列, 并且分成两行, 当 N为偶数 时, 每行包括 N/2个磁盘单元的标识; 当 N为奇数时, 一行包括( (N+l ) /2 ) -1个磁盘单元的标识和一个虚拟的磁盘单元的标识, 另一行包括( (N+l ) /2 ) 个磁盘单元的标识; 固定第一磁盘单元的标识, 当 N为偶数时, 将其余磁盘单 元的标识顺序移位(N-1次, 生成(N-1 )个逻辑模块; 当 N为奇数时, 将其余 磁盘单元的标识顺序移位 N次, 生成 N个逻辑模块, 并去掉各个逻辑模块中包 含有所述虚拟的磁盘单元的标识的列。
10、 根据权利要求 6-9中任一权利要求所述的装置, 其特征在于, 还包括 第三处理模块, 用于在所述第一处理模块和第二处理模块的处理完成后,将所 述第二物理磁盘的热备磁盘单元中的数据回拷到重新插入的用于替换所述第 一物理磁盘的物理磁盘中, 并将所述布局模板恢复到没有进行替换之前的状 态。
11、 一种廉价磁盘冗余阵列系统, 其特征在于, 包括如权利要求 6-10 中任一 权利要求所述的廉价磁盘冗余阵列重构装置。
PCT/CN2011/080882 2010-10-19 2011-10-18 廉价磁盘冗余阵列重构方法,装置及系统 WO2012051931A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/715,703 US8843782B2 (en) 2010-10-19 2012-12-14 Method and apparatus for reconstructing redundant array of inexpensive disks, and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201010516539.4 2010-10-19
CN201010516539.4A CN101980137B (zh) 2010-10-19 2010-10-19 廉价磁盘冗余阵列重构方法、装置及系统

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/715,703 Continuation US8843782B2 (en) 2010-10-19 2012-12-14 Method and apparatus for reconstructing redundant array of inexpensive disks, and system

Publications (1)

Publication Number Publication Date
WO2012051931A1 true WO2012051931A1 (zh) 2012-04-26

Family

ID=43600643

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2011/080882 WO2012051931A1 (zh) 2010-10-19 2011-10-18 廉价磁盘冗余阵列重构方法,装置及系统

Country Status (3)

Country Link
US (1) US8843782B2 (zh)
CN (1) CN101980137B (zh)
WO (1) WO2012051931A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378093B2 (en) 2013-04-25 2016-06-28 Globalfoundries Inc. Controlling data storage in an array of storage devices

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980137B (zh) 2010-10-19 2012-05-30 成都市华为赛门铁克科技有限公司 廉价磁盘冗余阵列重构方法、装置及系统
US8959389B2 (en) 2011-11-23 2015-02-17 International Business Machines Corporation Use of a virtual drive as a hot spare for a raid group
CN102591746B (zh) * 2011-12-29 2014-01-08 华为数字技术(成都)有限公司 数据重构方法和存储设备
CN102609223B (zh) * 2012-02-13 2015-06-24 浪潮(北京)电子信息产业有限公司 一种独立冗余磁盘阵列系统及其初始化方法
US8327185B1 (en) * 2012-03-23 2012-12-04 DSSD, Inc. Method and system for multi-dimensional raid
CN102708019B (zh) * 2012-04-28 2014-12-03 华为技术有限公司 一种硬盘数据恢复方法、装置及系统
CN104461791B (zh) * 2014-11-28 2017-02-01 华为技术有限公司 一种信息处理方法及处理装置
CN105183623B (zh) * 2015-08-25 2018-12-07 浙江宇视科技有限公司 一种基于热备vd提高vdg重建性能的方法和装置
US10877674B2 (en) 2016-01-29 2020-12-29 Hewlett Packard Enterprise Development Lp Determining layout templates identifying storage drives
US10877922B2 (en) 2016-01-29 2020-12-29 Hewlett Packard Enterprise Development Lp Flushes based on intent log entry states
EP3286631A4 (en) 2016-01-29 2018-05-30 Hewlett-Packard Enterprise Development LP Remote direct memory access
CN107526536B (zh) * 2016-06-22 2020-11-27 伊姆西Ip控股有限责任公司 用于管理存储系统的方法和系统
CN106126378A (zh) * 2016-06-29 2016-11-16 华为技术有限公司 一种触发磁盘阵列进行重构的方法及装置
US10339062B2 (en) 2017-04-28 2019-07-02 EMC IP Holding Company LLC Method and system for writing data to and read data from persistent storage
US10614019B2 (en) 2017-04-28 2020-04-07 EMC IP Holding Company LLC Method and system for fast ordered writes with target collaboration
CN108228382B (zh) * 2018-01-11 2021-08-10 成都信息工程大学 一种针对evenodd码单盘故障的数据恢复方法
CN110704248B (zh) * 2019-09-04 2023-01-10 苏州浪潮智能科技有限公司 一种可调速率的磁盘阵列重构方法、装置及电子设备
CN113448676A (zh) * 2020-03-24 2021-09-28 阿里巴巴集团控股有限公司 虚拟机的控制方法、装置及设备
CN112667156A (zh) * 2020-12-25 2021-04-16 深圳创新科技术有限公司 一种虚拟化raid实现方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040019821A1 (en) * 2002-07-26 2004-01-29 Chu Davis Qi-Yu Method and apparatus for reliable failover involving incomplete raid disk writes in a clustering system
CN1503224A (zh) * 2002-11-22 2004-06-09 华为技术有限公司 5级独立冗余磁盘阵列中多盘失败情况下的读写操作方法
CN1519726A (zh) * 2003-01-24 2004-08-11 华为技术有限公司 一种磁盘在线重构方法
CN101276302A (zh) * 2007-03-29 2008-10-01 中国科学院计算技术研究所 一种磁盘阵列系统中磁盘故障处理和数据重构方法
CN101980137A (zh) * 2010-10-19 2011-02-23 成都市华为赛门铁克科技有限公司 廉价磁盘冗余阵列重构方法、装置及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6959413B2 (en) * 2002-06-18 2005-10-25 Lsi Logic Corporation Method of handling unreadable blocks during rebuilding of a RAID device
US7024586B2 (en) * 2002-06-24 2006-04-04 Network Appliance, Inc. Using file system information in raid data reconstruction and migration
US7188270B1 (en) * 2002-11-21 2007-03-06 Adaptec, Inc. Method and system for a disk fault tolerance in a disk array using rotating parity
US7308599B2 (en) * 2003-06-09 2007-12-11 Hewlett-Packard Development Company, L.P. Method and apparatus for data reconstruction after failure of a storage device in a storage array
US7260681B2 (en) * 2005-06-02 2007-08-21 Seagate Technology Llc Stripe buffer list
US7647526B1 (en) * 2006-12-06 2010-01-12 Netapp, Inc. Reducing reconstruct input/output operations in storage systems
US20130024723A1 (en) * 2011-07-19 2013-01-24 Promise Technology, Inc. Disk storage system with two disks per slot and method of operation thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040019821A1 (en) * 2002-07-26 2004-01-29 Chu Davis Qi-Yu Method and apparatus for reliable failover involving incomplete raid disk writes in a clustering system
CN1503224A (zh) * 2002-11-22 2004-06-09 华为技术有限公司 5级独立冗余磁盘阵列中多盘失败情况下的读写操作方法
CN1519726A (zh) * 2003-01-24 2004-08-11 华为技术有限公司 一种磁盘在线重构方法
CN101276302A (zh) * 2007-03-29 2008-10-01 中国科学院计算技术研究所 一种磁盘阵列系统中磁盘故障处理和数据重构方法
CN101980137A (zh) * 2010-10-19 2011-02-23 成都市华为赛门铁克科技有限公司 廉价磁盘冗余阵列重构方法、装置及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378093B2 (en) 2013-04-25 2016-06-28 Globalfoundries Inc. Controlling data storage in an array of storage devices

Also Published As

Publication number Publication date
CN101980137B (zh) 2012-05-30
CN101980137A (zh) 2011-02-23
US20130132770A1 (en) 2013-05-23
US8843782B2 (en) 2014-09-23

Similar Documents

Publication Publication Date Title
WO2012051931A1 (zh) 廉价磁盘冗余阵列重构方法,装置及系统
US7640452B2 (en) Method for reconstructing data in case of two disk drives of RAID failure and system therefor
US8065558B2 (en) Data volume rebuilder and methods for arranging data volumes for improved RAID reconstruction performance
JP5391993B2 (ja) ディスクアレイ装置
US9009526B2 (en) Rebuilding drive data
US9798620B2 (en) Systems and methods for non-blocking solid-state memory
CN104503706B (zh) 一种基于磁盘阵列的数据存储及读取方法
US7353423B2 (en) System and method for improving the performance of operations requiring parity reads in a storage array system
TWI501080B (zh) 用於價廉磁碟冗餘陣列(raid)磁卷與磁碟群組之間的鬆動連結之系統與方法
US11531590B2 (en) Method and system for host-assisted data recovery assurance for data center storage device architectures
JP2016530637A (ja) Raidパリティストライプ再構成
US20070088990A1 (en) System and method for reduction of rebuild time in raid systems through implementation of striped hot spare drives
US20060136778A1 (en) Process for generating and reconstructing variable number of parity for byte streams independent of host block size
JPH0724039B2 (ja) 記憶サブシステム及びパリテイ・グループの一部を再生する方法
JPWO2006123416A1 (ja) ディスク故障復旧方法及びディスクアレイ装置
JP2006236001A (ja) ディスクアレイ装置
US20160342470A1 (en) Separating a hybrid asymmetric mix of a raid 1 mirror and a parity-based raid array
WO2012089152A1 (zh) 一种文件系统内实现独立磁盘冗余阵列保护的方法及装置
US10409682B1 (en) Distributed RAID system
WO2015055033A1 (zh) 一种元数据的保护方法和装置
CN105630417B (zh) 一种raid5系统及在raid5系统失效后继续写数据的方法
US20170371782A1 (en) Virtual storage
US20140201480A1 (en) Data Recovery Scheme Based on Data Backup Status
JP5586712B2 (ja) ディスクアレイ制御装置およびディスクアレイ装置
JP2010026812A (ja) 磁気ディスク装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11833837

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11833837

Country of ref document: EP

Kind code of ref document: A1