WO2021262038A1 - Способ перераспределения данных при расширении массива дисков - Google Patents

Способ перераспределения данных при расширении массива дисков Download PDF

Info

Publication number
WO2021262038A1
WO2021262038A1 PCT/RU2021/050162 RU2021050162W WO2021262038A1 WO 2021262038 A1 WO2021262038 A1 WO 2021262038A1 RU 2021050162 W RU2021050162 W RU 2021050162W WO 2021262038 A1 WO2021262038 A1 WO 2021262038A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
stripes
disk array
group
array
Prior art date
Application number
PCT/RU2021/050162
Other languages
English (en)
French (fr)
Inventor
Алексей Валерьевич МАРОВ
Дмитрий Сергеевич СМИРНОВ
Original Assignee
Общество с ограниченной ответственностью "РЭЙДИКС"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "РЭЙДИКС" filed Critical Общество с ограниченной ответственностью "РЭЙДИКС"
Priority to US18/011,738 priority Critical patent/US20230315324A1/en
Publication of WO2021262038A1 publication Critical patent/WO2021262038A1/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0661Format or protocol conversion arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD

Definitions

  • SUBSTANCE invention relates to data storage systems on disks and 5 methods of data redistribution when increasing the number of disks and changing the RAID level (raid).
  • the process of redistributing data is the process of moving data from one 10 disk space configuration in a checksum storage system (RAID) to another disk space configuration to increase the physical RAID space and thereby the performance of the storage system, and / or changing the RAID level to improve system resiliency.
  • RAID checksum storage system
  • the closest is the technical solution described in patent No. EP2021904, publication 2009-02-11, IPC G06F-003/06.
  • the solution relates to systems and methods for reallocating data in RAID. Way involves moving data from the original RAID device to an alternate RAID device and removing the original RAID device.
  • the technical result of the invention is to speed up the procedure for redistributing data when it is possible to implement user requests in the process of redistribution.
  • a method for redistributing data while expanding an array of disks during operation of a computer system includes the following operations.
  • At least one physical disk is added to the disk array containing at least two disks with the initial distribution of data across the disks of the array.
  • All stripes of the original disk array are divided into 15 groups, including k stripes, while the number of k stripes from the initial array configuration is selected so that when transferring data from the initial disk array configuration to a new disk array configuration, the transferred data, including the calculated checksums for a new data array, occupied an integer 20 number of m stripes.
  • the data of each group of stripes of the original disk array is sequentially transferred to the previously reserved data recording area, and then the data of this group of stripes is written to the stripes of the new configuration of the disk array.
  • the priority of the data transfer process is set from zero 15 to one hundred percent of the priority, depending on requests for user requests.
  • Priority adjustment is carried out by allocating a period of time between the transfer of one group of stripes until the start of the transfer of the next group of stripes.
  • the data redistribution is interrupted, the data is restored, and then the data transfer of the stripe groups is continued.
  • the data is redistributed 25 to the end, and then the data that was lost or corrupted is restored.
  • data recovery is performed simultaneously with data transfer, for those areas of the disk array that do not fall into the current group of transfer stripes.
  • Block - in RAID arrays disks are logically divided into blocks of the same size.
  • Stripe is a sequence of blocks with the same numbers located on different disks of a RAID array.
  • FIG. Figure 1 shows the state of the RAID array before starting the process of migrating data from the initial array configuration to the new array configuration.
  • FIG. Figure 2 shows a diagram of the first iteration of data migration from the initial array configuration to the new array configuration.
  • FIG. 3 shows a diagram of the second iteration of data transfer from the initial array configuration to the new array configuration.
  • FIG. 4 shows a diagram of the third iteration of data transfer from 15 of the initial array configuration to the new array configuration.
  • FIG. 5 shows a block diagram of the data redistribution process.
  • FIG. 6 shows a block diagram of the process of sequential transfer of stripes of one group.
  • FIG. 7 shows a block diagram of the process of parallel transfer of 20 stripes of one group.
  • FIG. 8 shows a block diagram of adjusting the speed of the data transfer process at different priorities.
  • the method of reallocating data while expanding a disk array while the computer system is running refers to the storage system moving from one disk array configuration to another, adding disks to increase the physical RAID space. At the same time, it is also possible to change the RAID level in order to increase the fault tolerance of the system.
  • An example of expanding a disk array is shown in FIG. 1. To four existing drives in the initial array configuration two disks are added and the new disk array configuration includes six disks.
  • the initial array of disks contains stripes A, B, C, D, E, F which contain on each disk blocks A1, A2, A3 with data and 5 checksums P of the entry level RAID in stripe A, and other stripes A, B, C, D , E, F discs 1-4.
  • the expansion can occur both by adding new physical disks, and by expanding the disk array in another way, for example, by adding another raid array or storage system 10 as a raid device.
  • the number of stripes k in the group of stripes from the initial configuration of the array is selected so that when transferring data from 20 of the initial configuration of the disk array to the new configuration of the disk array, the transferred data, including the calculated checksums for the new array of data, occupy an integer number m of stripes.
  • the data of each group of stripes of the initial disk array is sequentially transferred to a previously reserved 25 free data recording area (backup copy).
  • the free data write area is calculated to always fit the data of the maximum stripe group being transferred.
  • FIG. Figure 2 shows a diagram of the first iteration of data migration from the initial array configuration to the new array configuration.
  • the first iteration moves the data for the first stripe group from the old configuration to the new one.
  • the data of the relocatable stripe group in this example covers the old configuration stripes numbered 0-3, including the data found in blocks 1-11 and 15 of the POS checksums.
  • data and new checksums So, o-S2, o and So, i-S2, i will be placed in stripes 0-2. Only one group of stripes is transferred at a time. Access to data of stripes that are in the process of migration, at the request of users, is blocked until the end of the movement of the group of 20 stripes. The priority of the data redistribution process or the process of fulfilling user requests during the migration are discussed below.
  • a new array configuration will expand the free area between migrated data and data not yet migrated.
  • the condition is reached when the size of the free area between the moved and not moved data of the new configuration of the disk array becomes 15 more than the size of the migrated stripe group.
  • the transfer of stripes of one group can be performed not sequentially by one stripe, but in parallel 25 for all stripes of the group.
  • reading the data necessary for calculating checksums according to the raid level and the number of disks of the new configuration calculating checksums and writing data are performed simultaneously for all stripes in the group.
  • This approach significantly increases the speed of data transfer.
  • the process of reallocating data when expanding a disk array is illustrated by the block diagram in FIG. 5.
  • the initial conditions for data redistribution are initialized, which include the number of the current transfer group, the size of the transfer group, 10 the number of groups in the raid, the size of the free area between the moved and not moved data of the old and new configurations of the disk array, the waiting time between the transfer of groups according to priority ...
  • the condition is checked whether it is necessary to redistribute the data 15 through the reserved data recording area or the data can be redistributed directly from the data of each group of stripes of the initial configuration of the disk array directly to the stripes of the new configuration of the disk array.
  • the value of the counter of the transferred stripe groups is updated 20 and the cycle repeats.
  • data transfer of a group of stripes can be carried out synchronously, one by one stripe (block a) or asynchronously, in parallel across all stripes (block b).
  • stripes can be transferred one after another, that is, sequentially (synchronously), or asynchronously, that is, several stripes of the group are transferred at once.
  • FIG. 6 shows a block diagram of a synchronous, one stripe at a time, sequential data redistribution.
  • FIG. 7 shows a block diagram of an asynchronous, parallel across all stripes, sequence of data redistribution.
  • all data blocks of the old configuration are read first, which are necessary for writing and calculating checksums of the new configuration.
  • checksums are calculated for it according to the raid level and the number of disks in the new 15 configuration. This event can occur simultaneously for several stripes.
  • After calculating the checksums of stripe X its data blocks and checksums are written according to the new configuration. Waiting for all stripes in the group to be written according to the new configuration. Then the transition to the next 20 group of stripes occurs, if not all groups have been transferred.
  • the data redistribution is interrupted, the data is restored, and then the data transfer of the zo-stripe groups is continued.
  • the data is redistributed to the end, and then the data that was lost or distorted is restored.
  • data recovery is performed simultaneously with the data transfer, for those areas of the disk array that do not fall into the current group of transfer stripes.
  • An important distinctive feature of the method is the ability to control the priority of data redistribution or the priority of executing user requests.
  • the priority is set by the storage administrator as a number of 10 between 0 and 100%. Priority adjusts the amount of time that the data remapping process will wait between the migration of one re-stripe group and the start of the migration of the next re-distribution group, for example, 5 milliseconds, thereby reducing the impact on user load.
  • the priority of data redistribution is set to 0%, then if there is a user load 20, the data redistribution will wait until the load stops, and then the data redistribution will continue.
  • the waiting time is proportional to the priority. Thus, you can adjust 25 the speed of data redistribution, depending on the priority and user load.
  • Priority management is carried out by counting the number of requests within a certain time and checking the user load on the data array also for a certain time.
  • the claimed method can be applied to increase the performance of a RAID array and its size by adding disk space while maintaining or increasing the reliability of storing information.
  • the level of the RAID array can be changed.
  • the user load on the storage system can be carried out, while the priority between data redistribution and user load can be changed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Techniques For Improving Reliability Of Storages (AREA)

Abstract

Изобретение относится к системам хранения данных на дисках и позволяет ускорить перераспределение данных. Добавляют хотя бы один физический диск в дисковый массив. Разбивают страйпы дискового массива данных на группы, при этом число страйпов из первоначальной конфигурации массива выбирают таким, чтобы при переносе данных они заняли целое число страйпов. Последовательно переносят данные каждой группы страйпов в заранее зарезервированную область записи данных, а затем записывают данные этой группы страйпов в страйпы новой конфигурации дискового массива. Когда размер свободной области становится больше чем размер переносимой группы страйпов, переносят и записывают данные каждой группы страйпов первоначального дискового массива непосредственно в страйпы новой конфигурации.

Description

СПОСОБ ПЕРЕРАСПРЕДЕЛЕНИЯ ДАННЫХ ПРИ РАСШИРЕНИИ
МАССИВА ДИСКОВ
ОБЛАСТЬ ТЕХНИКИ
Изобретение относится к системам хранения данных на дисках и 5 способам перераспределения данных при увеличении числа дисков и изменении уровня RAID (рейда).
ПРЕДШЕСТВУЮЩИЙ УРОВЕНЬ ТЕХНИКИ
Процесс перераспределения данных (рестрайпинг, англ restriping) - это процесс перемещения данных из одной конфигурации дискового пространства 10 в системе хранения данных с контрольными суммами (RAID) в другую конфигурацию дискового пространства для увеличения физического пространства RAID и тем самым производительности системы хранения данных, и/или изменения уровня RAID с целью повышения отказоустойчивости системы.
15 Известна система и способ перераспределения данных по множеству томов по патенту ЕР1880324, публикация 23.01.2008, МПК G06F-003/06. Способ предполагает распределение данных по дискам в виде страйпов с одинаковыми номерами и перераспределение данных при добавлении дисков. Перераспределение данных предполагает определение того, 20 находятся ли страйпы на правильном объеме дисков, и если это не так, перемещает страйпы на правильный объем.
Известен патент CN102880424, публикация 28.10.2015, МПК G06F- 003/06, в котором описана система и способ перераспределения данных в системе RAID. Способ может выполняться периодически, непрерывно, после 25 каждого изменения RAID-устройства, после добавления дисководов и / или перед удалением дисководов. Система включает в себя подсистему RAID и диспетчер дисков, сконфигурированный для автоматического вычисления оценки для каждого RAID-устройства.
Наиболее близким является техническое решение, описанное в патенте зо ЕР2021904, публикация 2009-02-11, МПК G06F-003/06. Решение относится к системам и способам перераспределения данных в RAID. Способ предусматривает перемещение данных с исходного устройства RAID на альтернативное устройство RAID и удаление исходного устройства RAID.
При этом остается актуальной задача повышения быстродействия процедуры перераспределения данных при осуществлении рестрайпинга.
5 СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Техническим результатом изобретения является ускорение процедуры перераспределения данных при возможности осуществления запросов пользователей в процессе перераспределения.
Способ перераспределения данных при расширении массива дисков во 10 время работы компьютерной системы включает следующие операции.
Добавляют хотя бы один физический диск в дисковый массив, содержащий, по меньшей мере, два диска с первоначальным распределением данных по дискам массива.
Разбивают все страйпы первоначального дискового массива данных на 15 группы, включающие к страйпов, при этом число к страйпов из первоначальной конфигурации массива выбирают таким, чтобы при переносе данных из первоначальной конфигурации дискового массива в новую конфигурацию дискового массива, переносимые данные, включая вычисленные контрольные суммы для нового массива данных, заняли целое 20 число m страйпов.
Далее последовательно переносят данные каждой группы страйпов первоначального дискового массива в заранее зарезервированную область записи данных, а затем записывают данные этой группы страйпов в страйпы новой конфигурации дискового массива.
25 При достижении условия, когда размер свободной области между перемещенными и не перемещенными данными новой конфигурации дискового массива становится больше чем размер переносимой группы страйпов, переносят и записывают данные каждой группы страйпов первоначального дискового массива непосредственно в страйпы новой зо конфигурации дискового массива.
И при переносе данных последней группы страйпов первоначального дискового массива в страйпы новой конфигурации дискового массива прекращают перераспределение данных. При этом, при переносе данных разрешают обращаться к массиву данных по запросам пользователей.
В частном случае выполнения при достижении условия, когда размер свободной области между перемещенными и не перемещенными данными 5 новой конфигурации дискового массива становится больше чем размер переносимых, по меньшей мере, одной группы страйпов, переносят и записывают данные, по меньшей мере, двух страйпов одной группы одновременно.
Кроме того, при достижении условия, когда размер свободной области 10 между перемещенными и не перемещенными данными новой конфигурации дискового массива становится больше чем размер переносимых, по меньшей мере, двух групп страйпов переносят и записывают данные, по меньшей мере, двух групп страйпов.
При этом, устанавливают приоритет процессу переноса данных от нуля 15 до ста процентов приоритета, зависящий от обращений по запросам пользователей. Регулировку приоритета осуществляют путем выделения периода времени между переносом одной группы страйпов до времени начала переноса последующей группы страйпов.
В одном варианте выполнения, при потере или искажении данных в 20 процессе перераспределения данных, прерывают перераспределение данных, восстанавливают данные, а далее продолжают перенос данных групп страйпов.
В другом варианте выполнения, при потере или искажении данных в процессе перераспределения данных, выполняют перераспределение 25 данных до конца, а далее восстанавливают данные, который были утрачены или искажены.
В еще одном варианте, при потере или искажении данных в процессе перераспределения данных, восстановление данных производят одновременно с переносом данных, для тех областей дискового массива, зо которые не попадают в текущую группу страйпов переноса.
В данной заявке используются следующие термины: Блок - в RAID массивах диски логически разбиваются на блоки одинакового размера.
Страйп - последовательность блоков с одинаковыми номерами, расположенных на разных дисках RAID массива.
5 Г руппа страйпов - два и более страйпов разных дисков RAID массива.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
На Фиг. 1 показано состояние RAID-массива перед началом процесса переноса данных из начальной конфигурации массива в новую конфигурацию массива.
10 На Фиг. 2 приведена схема первой итерации переноса данных из начальной конфигурации массива в новую конфигурацию массива.
На Фиг. 3 приведена схема второй итерации переноса данных из начальной конфигурации массива в новую конфигурацию массива.
На Фиг. 4 приведена схема третьей итерации переноса данных из 15 начальной конфигурации массива в новую конфигурацию массива.
На Фиг. 5 приведена блок схема процесса перераспределения данных.
На Фиг. 6 приведена блок схема процесса последовательного переноса страйпов одной группы.
На Фиг. 7 приведена блок схема процесса параллельного переноса 20 страйпов одной группы.
На Фиг. 8 приведена блок схема регулировки скорости процесса переноса данных при разном приоритете.
ВАРИАНТЫ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯ
Способ перераспределения данных при расширении массива дисков во 25 время работы компьютерной системы относится к системе хранения данных при переходе из одной конфигурации массива дисков в другую, при добавлении дисков для увеличения физического пространства RAID. При этом возможно также изменение уровня RAID с целью повышения отказоустойчивости системы. Пример расширения массива дисков показан на зо Фиг. 1. К четырем имеющимся дискам первоначальной конфигурации массива добавляются два диска, и новая конфигурация дискового массива включает шесть дисков.
Первоначальный массив дисков содержит страйпы А, В, С, D, Е, F которые содержат на каждом диске блоки А1, А2, АЗ с данными и 5 контрольными суммами Р начального уровня RAID в страйпе А, и других страйпахА, В, С, D, Е, F дисков 1-4.
При этом, расширение может происходить как путем добавления новых физических дисков, так и путем расширения дискового массива другим способом, например, за счет добавления другого рейд массива или системы 10 хранения в качестве устройства рейда.
Первоначально разбивают все страйпы А, В, С, D, Е, F... первоначального дискового массива данных на группы, включающие к страйпов. В данном способе перераспределение данных производится одновременно для нескольких страйпов - группы страйпов. Тем самым 15 достигается ускорение процедуры перераспределения данных, так как в известных способах перенос осуществляется по одному страйпу или по одному блоку.
При этом, количество страйпов к в группе страйпов из первоначальной конфигурации массива выбирают таким, чтобы при переносе данных из 20 первоначальной конфигурации дискового массива в новую конфигурацию дискового массива, переносимые данные, включая вычисленные контрольные суммы для нового массива данных, заняли целое число m страйпов.
Далее последовательно переносят данные каждой группы страйпов первоначального дискового массива в заранее зарезервированную, 25 свободную область записи данных (backup сору). Размер свободной области записи данных рассчитывается таким образом, чтобы всегда поместились данные переносимой группы страйпов максимального размера.
Затем записывают данные этих групп страйпов в страйпы новой конфигурации дискового массива. зо Процесс перераспределения данных, когда перенос данных группы страйпов сначала производится в заранее зарезервированную область записи данных, а затем в страйпы новой конфигурации дискового массива показан на Фиг. 2 - Фиг. 4. В процессе перераспределения данных запись в заранее зарезервированную, свободную область производится чтобы избежать порчи данных в случае отказов во время этого процесса. В процессе переноса, если это необходимо, рассчитываются новые контрольные суммы данных вместо старых Pi, где Pi - это контрольная сумма в страйпе i старой конфигурации 5 рейда. В примере реализации рассматривается вариант с расширением уровня RAID, значит с расчетом новых контрольных сумм Si,j , где Si,j - контрольная сумма номер j в страйпе i новой конфигурации рейда
На Фиг. 2 приведена схема первой итерации переноса данных из начальной конфигурации массива в новую конфигурацию массива. При этом 10 этап записи в заранее зарезервированную область, для простоты понимания на рисунках опущен. При первой итерации перемещаются данные первой группы страйпов из старой конфигурации в новую. Данные перемещаемой группы страйпов в данном примере охватывают страйпы старой конфигурации с номерами 0 - 3, включающие данные, находящиеся в блоках 1-11 и 15 контрольные суммы Ро- Рз. В новой конфигурации дискового массива данные и новые контрольные суммы So, о- S2,o и So,i- S2,i будут размещены в страйпах с номерами 0 - 2. В один момент времени переносится только одна группа страйпов. Обращение к данным страйпов, находящихся в процессе переноса, по запросам пользователей блокируются до окончания перемещения группы 20 страйпов. Вопросы приоритета процесса перераспределения данных или процесса выполнения запросов пользователей при переносе, рассматриваются ниже.
После окончания первой итерации в новой конфигурации массива между перенесенными данными (страйпы с номерами 0 - 2) и еще не 25 перенесенными данными (страйп номер 4 и последующие страйпы) образуется свободный, не занятый данными страйп номер 3.
Во время второй итерации переноса данных из начальной конфигурации массива в новую конфигурацию массива (Фиг. 3), происходит перенос данных группы страйпов под номерами 4 - 7, блоки 12-23 и зо соответствующие контрольные суммы. Они записываются в новой конфигурации массива в страйпы с номерами 3 -5. При этом рассчитываются соответствующие новые контрольные суммы. По окончании этой итерации образуется свободная зона, не занятая данными, состоящая уже из двух страйпов, с номерами 6 - 7.
На третьей итерации происходят такие же процессы переноса данных, сначала запись данных группы страйпов в свободную, заранее 5 зарезервированную область, а затем в новую конфигурацию массива в страйпы под номерами 6 - 8, блоки 24-35 и соответствующие контрольные суммы. По окончании этой итерации образуется свободная зона, не занятая данными, состоящая уже из трех страйпов, с номерами 9 - 11.
Таким образом каждая итерация переноса данных группы страйпов в 10 новую конфигурацию массива будет расширять свободную зону между перенесенными данными и еще не перенесенными данными. На какой-то итерации, в данном примере после третьей итерации, достигается условие, когда размер свободной области между перемещенными и не перемещенными данными новой конфигурации дискового массива становится 15 больше чем размер переносимой группы страйпов.
При достижении этого условия переносят и записывают данные каждой группы страйпов первоначального дискового массива непосредственно в страйпы новой конфигурации дискового массива, минуя этап промежуточной записи в заранее зарезервированную область. Такой переход в данном 20 способе перераспределения данных при расширении массива дисков во время работы компьютерной системы не затрагивает хранимые данные и позволяет еще более ускорить перенос данных.
Так же при достижении этого условия перенос страйпов одной группы может выполняться не последовательно по одному страйпу, а параллельно 25 для всех страйпов группы. Таким образом чтение данных необходимых для расчета контрольных сумм согласно уровню рейда и количеству дисков новой конфигурации, расчет контрольных сумм и запись данных выполняется одновременно для всех страйпов группы. Такой подход существенно повышает скорость переноса данных. зо Более того, когда размер области между перемещенными и не перемещенными данными новой конфигурации дискового массива становится больше чем размер нескольких переносимых групп страйпов, перенос данных может выполняться параллельно не только для страйпов одной группы, но и сразу для нескольких групп страйпов.
Таким образом, перемещение данных в свободную, заранее зарезервированную область производится не всегда, а только в начале 5 процесса перераспределения данных при расширении массива дисков.
Процесс перераспределения данных при расширении массива дисков иллюстрируется блок схемой на Фиг. 5. Первоначально производится инициализация начальных условий перераспределения данных к которым относится номер текущей группы переноса, размер группы переноса, 10 количество групп в рейде, размер свободной области между перемещенными и не перемещенными данными старой и новой конфигурациями дискового массива, время ожидания между переносом групп согласно приоритету. Далее, после проверки не проведено ли полное перераспределение данных, проверяется условие, необходимо ли проводить перераспределение данных 15 через зарезервированную область записи данных или может быть произведено перераспределение данных непосредственно из данных каждой группы страйпов первоначальной конфигурации дискового массива непосредственно в страйпы новой конфигурации дискового массива. После осуществления следующей итерации переноса данных производится 20 обновление значения счетчика перенесенных групп страйпов и цикл повторяется.
Необходимо отметить, что благодаря наличию счетчика перенесенных групп и внутренней хэш таблицы, в которой для каждой группы при процессе рестрайпинга хранится текущее количество запросов от пользователя и 25 запросов на перенос данных, перераспределение данных может происходить без остановки пользовательской нагрузки на основное хранилище.
Из блок схемы на Фиг. 5, перенос данных группы страйпов может осуществляться синхронно, по одному страйпу (блок а) или асинхронно, параллельно по всем страйпам (блок Ь). Таким образом в группе страйпы зо могут переноситься один за другим, то есть последовательно (синхронно), или асинхронно, то есть переносится сразу несколько страйпов группы.
На Фиг. 6 приведена блок схема синхронного, по одному страйпу, последовательного перераспределения данных. При последовательном переносе страйпов группы, для каждого страйпа по очереди сперва производится чтение данных необходимых для расчета контрольных сумм согласно уровню рейда и количеству дисков новой конфигурации. Затем прочитанные блоки и контрольные суммы записываются в новое 5 местоположение, согласно новой конфигурации рейда. Только после окончания записи страйпа происходит переход к обработке следующего страйпа.
На Фиг. 7 приведена блок схема асинхронной, параллельной по всем страйпам, последовательности перераспределения данных При 10 параллельном переносе всех страйпов группы, сперва выполняется чтение всех блоков данных старой конфигурации, необходимых для записи и расчета контрольных сумм новой конфигурации. Когда для какого-то страйпа X новой конфигурации прочитаны все блоки данных, то для него выполняется расчет контрольных сумм согласно уровню рейда и количеству дисков новой 15 конфигурации. Это событие может происходить одновременно для нескольких страйпов. После расчета контрольных сумм страйпа X выполняется запись его блоков данных и контрольных сумм согласно новой конфигурации. Выполняется ожидание того, что для всех страйпов группы будет выполнена запись согласно новой конфигурации. Далее происходит переход к следующей 20 группе страйпов, если не все группы были перенесены.
В процессе переноса данных может произойти отказа дисков дисковой корзины в RAID, повреждение части диска или другой отказ в системе хранения данных, при котором отказавшие данные могут быть восстановлены за счет наличия в RAID контрольных сумм.
25 В процессе восстановления данных при перераспределении возможны три варианта.
В первом варианте при потере или искажении данных в процессе перераспределения данных, прерывают перераспределение данных, восстанавливают данные, а далее продолжают перенос данных групп зо страйпов.
Во втором варианте при потере или искажении данных в процессе перераспределения данных, выполняют перераспределение данных до конца, а далее восстанавливают данные, который были утрачены или искажены. В третьем варианте при потере или искажении данных в процессе перераспределения данных, восстановление данных производят одновременно с переносом данных, для тех областей дискового массива, которые не попадают в текущую группу страйпов переноса.
5
Важной отличительной особенностью способа является возможность управления приоритетом перераспределения данных или приоритетом выполнения запросов пользователей.
Приоритет задает администратор системы хранения данных как число 10 от 0 до 100 %. Приоритет регулирует время, которое процесс перераспределения данных будет ждать между переносом одной группы рестрайпинга и началом переноса следующей группы перераспределения данных, например, 5 миллисекунд, тем самым снижая влияние на пользовательскую нагрузку.
15 Если приоритет выставлен 100%, то даже при наличии пользовательской нагрузки на массив данных, не будет происходить ожидание между переносом одной группы и другой, таким образом перераспределения данных будет работать с максимальной скоростью.
Если приоритет перераспределения данных выставлен 0%, то при 20 наличии пользовательской нагрузки, перераспределение данных будет ожидать пока нагрузка прекратится, а потом перераспределение данных продолжится.
Если приоритет перераспределения данных между 0% и 100%, то время ожидания пропорционально приоритету. Таким образом можно регулировать 25 скорость перераспределения данных в зависимости от приоритета и нагрузки пользователя.
Процедура управления приоритетом поясняется блок схемой на Фиг. 8. Управление приоритетом осуществляется за счет подсчета количества запросов в течение определенного времени и проверки пользовательской зо нагрузки на массив данных также за определенное время.
ПРОМЫШЛЕННАЯ ПРИМЕНИМОСТЬ Заявленный способ может быть применен для увеличения производительности RAID-массива и его размера за счет добавления дискового пространства при сохранении или увеличении надежности сохранения информации. Во время перераспределения данных может быть произведена смена уровня RAID-массива. При этом пользовательская нагрузка на систему хранения может осуществляться, при этом может меняться приоритет между перераспределением данных и пользовательской нагрузкой.
Процесс перераспределения данных - рестрайпинга происходит быстрее и он является более ориентированным на запросы пользователей систем хранения данных, так как запросы пользователей могут не прерываться.

Claims

ФОРМУЛА ИЗОБРЕТЕНИЯ
1. Способ перераспределения данных при расширении массива дисков во время работы компьютерной системы характеризующийся тем, что
- добавляют хотя бы один физический диск в дисковый массив, содержащий, по меньшей мере, два диска с первоначальным распределением данных по дискам массива;
- разбивают все страйпы первоначального дискового массива данных на группы, включающие к страйпов, при этом число к страйпов из первоначальной конфигурации массива выбирают таким, чтобы при переносе данных из первоначальной конфигурации дискового массива в новую конфигурацию дискового массива, переносимые данные, включая вычисленные контрольные суммы для нового массива данных, заняли целое число m страйпов;
- далее последовательно переносят данные каждой группы страйпов первоначального дискового массива в заранее зарезервированную область записи данных, а затем записывают данные этой группы страйпов в страйпы новой конфигурации дискового массива;
- при достижении условия, когда размер свободной области между перемещенными и не перемещенными данными новой конфигурации дискового массива становится больше чем размер переносимой группы страйпов, переносят и записывают данные каждой группы страйпов первоначального дискового массива непосредственно в страйпы новой конфигурации дискового массива;
- и при переносе данных последней группы страйпов первоначального дискового массива в страйпы новой конфигурации дискового массива прекращают перераспределение данных, при этом, при переносе данных разрешают обращаться к массиву данных по запросам пользователей.
2. Способ по п. 1 , характеризующийся тем, что при достижении условия, когда размер свободной области между перемещенными и не перемещенными данными новой конфигурации дискового массива становится больше чем размер переносимых, по меньшей мере, одной группы страипов, переносят и записывают данные, по меньшей мере, двух страйпов одной группы одновременно.
3. Способ по п. 1 , характеризующийся тем, что при достижении условия, когда размер свободной области между перемещенными и не перемещенными данными новой конфигурации дискового массива становится больше чем размер переносимых, по меньшей мере, двух групп страйпов переносят и записывают данные, по меньшей мере, двух групп страйпов.
4. Способ по п. 1 , характеризующийся тем, что устанавливают приоритет процессу переноса данных от нуля до ста процентов приоритета, зависящий от обращений по запросам пользователей.
5. Способ по п. 4, характеризующийся тем, что регулировку приоритета осуществляют путем выделения периода времени между переносом одной группы страйпов до времени начала переноса последующей группы страйпов.
6. Способ по п. 1 , характеризующийся тем, что при потере или искажении данных в процессе перераспределения данных, прерывают перераспределение данных, восстанавливают данные, а далее продолжают перенос данных групп страйпов.
7. Способ по п. 1 , характеризующийся тем, что при потере или искажении данных в процессе перераспределения данных, выполняют перераспределение данных до конца, а далее восстанавливают данные, который были утрачены или искажены.
8. Способ по п. 1 , характеризующийся тем, что при потере или искажении данных в процессе перераспределения данных, восстановление данных производят одновременно с переносом данных, для тех областей дискового массива, которые не попадают в текущую группу страйпов переноса.
PCT/RU2021/050162 2020-06-24 2021-06-14 Способ перераспределения данных при расширении массива дисков WO2021262038A1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/011,738 US20230315324A1 (en) 2020-06-24 2021-06-14 Method for redistributing data when a disk array is expanded

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2020120913A RU2747213C1 (ru) 2020-06-24 2020-06-24 Способ перераспределения данных при расширении массива дисков
RU2020120913 2020-06-24

Publications (1)

Publication Number Publication Date
WO2021262038A1 true WO2021262038A1 (ru) 2021-12-30

Family

ID=75850886

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2021/050162 WO2021262038A1 (ru) 2020-06-24 2021-06-14 Способ перераспределения данных при расширении массива дисков

Country Status (3)

Country Link
US (1) US20230315324A1 (ru)
RU (1) RU2747213C1 (ru)
WO (1) WO2021262038A1 (ru)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5502836A (en) * 1991-11-21 1996-03-26 Ast Research, Inc. Method for disk restriping during system operation
EP2357552A1 (en) * 2006-05-24 2011-08-17 Compellent Technologies System and method for RAID management, reallocation and restriping
US8578090B1 (en) * 2005-04-29 2013-11-05 Netapp, Inc. System and method for restriping data across a plurality of volumes

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2299375A3 (en) * 2002-11-14 2012-02-01 EMC Corporation Systems and methods for restriping files in a distributed file system
US7647451B1 (en) * 2003-11-24 2010-01-12 Netapp, Inc. Data placement technique for striping data containers across volumes of a storage system cluster
RU2646312C1 (ru) * 2016-11-14 2018-03-02 Общество с ограниченной ответственностью "ИБС Экспертиза" Интегрированный программно-аппаратный комплекс

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5502836A (en) * 1991-11-21 1996-03-26 Ast Research, Inc. Method for disk restriping during system operation
US8578090B1 (en) * 2005-04-29 2013-11-05 Netapp, Inc. System and method for restriping data across a plurality of volumes
EP2357552A1 (en) * 2006-05-24 2011-08-17 Compellent Technologies System and method for RAID management, reallocation and restriping

Also Published As

Publication number Publication date
RU2747213C1 (ru) 2021-04-29
US20230315324A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
US7971013B2 (en) Compensating for write speed differences between mirroring storage devices by striping
US6785836B2 (en) In-place data transformation for fault-tolerant disk storage systems
EP2180407B1 (en) Fast data recovery from HDD failure
US5881311A (en) Data storage subsystem with block based data management
US5457791A (en) Storage system and method of control
EP2400382B1 (en) Storage system
KR20050013938A (ko) 하드 디스크 드라이브에서의 자율적인 데이터 스크럽시스템 및 방법
JPH0619632A (ja) コンピユータ・システムのストレージ装置及びデータのストア方法
EP0707267A2 (en) Redundant array of disk drives with asymmetric mirroring and asymmetric mirroring data processing method
US20060059306A1 (en) Apparatus, system, and method for integrity-assured online raid set expansion
JP2021064283A (ja) ストレージ制御装置およびプログラム
US6304941B1 (en) Method and apparatus for reducing processor operations when adding a new drive to a raid-6 drive group
RU2747213C1 (ru) Способ перераспределения данных при расширении массива дисков
JP2001043031A (ja) 分散パリティ生成機能を備えたディスクアレイ制御装置
JPH10254642A (ja) 記憶装置システム
US8555007B2 (en) Storage system with journal disks dynamically assigned
JP3669103B2 (ja) 記憶装置および記憶装置サブシステム
JP3428350B2 (ja) 記憶装置システム
JPH02291011A (ja) 記憶装置
CN114721585A (zh) 存储管理方法、设备和计算机程序产品
US20100049915A1 (en) Virtual disk timesharing
US8977799B2 (en) Storage caching/tiering acceleration through staggered asymmetric caching
JPH09265359A (ja) ディスクアレイシステムおよびディスクアレイシステムの制御方法
US8234448B2 (en) Redundancy protected mass storage system with increased performance
JP3874019B2 (ja) 記憶装置システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21828882

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21828882

Country of ref document: EP

Kind code of ref document: A1