JP2023536693A - Automatic Balancing Storage Method for Ceph Storage Systems Based on Hierarchical Mapping - Google Patents

Automatic Balancing Storage Method for Ceph Storage Systems Based on Hierarchical Mapping Download PDF

Info

Publication number
JP2023536693A
JP2023536693A JP2023503089A JP2023503089A JP2023536693A JP 2023536693 A JP2023536693 A JP 2023536693A JP 2023503089 A JP2023503089 A JP 2023503089A JP 2023503089 A JP2023503089 A JP 2023503089A JP 2023536693 A JP2023536693 A JP 2023536693A
Authority
JP
Japan
Prior art keywords
storage
osd
sub
level
ceph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023503089A
Other languages
Japanese (ja)
Inventor
陳寧江
盧▲イュ▼
Original Assignee
▲広▼西大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ▲広▼西大学 filed Critical ▲広▼西大学
Publication of JP2023536693A publication Critical patent/JP2023536693A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms

Abstract

本発明は階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法を開示する。本発明の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法は、ストレージクラスタの全てのOSD(Object Storage Device、オブジェクトストレージデバイス)に1つのレベル属性を追加し、レベルに応じて複数のレベルのサブストレージプールに分割するとともに、OSDレベルを基礎としてPG (Placement Group、プレイスメントグループ)に1つのレベル属性を追加し、PGは同一レベルのOSDサブストレージプールでOSD組み合わせを探してストレージし、また、ランダム因子及び影響因子を加えてPGによるOSDの選択の過程を指導し、総ストレージプールにおいてシングルノードOSDに使用率の高すぎが発生した場合、PGがあるストレージプールと他のストレージプールの使用率情報に基づいてPG移行の方向を確定し、また、PGレベル、ランダム因子及び影響因子組み合わせに基づいて、移行均等化調整を行うことを含む。本発明は、Cephストレージシステムにおける使用率が高すぎるOSDが内部のPGを合理的に移行でき、それによりシステムストレージの均等化を保証し、システムの安定性を向上させることを実現できる。【選択図】なしThe present invention discloses an automatic equalization storage method for Ceph storage system based on tier mapping. The automatic equalization storage method of the Ceph storage system based on tier mapping of the present invention adds one level attribute to all OSDs (Object Storage Devices) of the storage cluster, and assigns multiple levels according to the level. In addition to dividing into sub-storage pools, one level attribute is added to the PG (Placement Group) based on the OSD level, and the PG searches for and stores OSD combinations in the OSD sub-storage pools at the same level, and also , adding random factors and influence factors to guide the process of OSD selection by PG, and when a single node OSD has too high utilization rate in the total storage pool, PG will decide whether to use one storage pool or another storage pool. determining the direction of PG migration based on rate information and making migration equalization adjustments based on PG level, random factors, and influencing factor combinations. The present invention can realize that an OSD with too high usage rate in a Ceph storage system can reasonably migrate its internal PG, thereby ensuring system storage equality and improving system stability. [Selection diagram] None

Description

本発明は分散ストレージ技術分野に属し、より具体的には、階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法に関する。 The present invention belongs to the field of distributed storage technology, and more particularly to an automatic balancing storage method for Ceph storage system based on tier mapping.

Cephストレージシステムはオブジェクトストレージシステム(Object-Based Storage System、OBSS)であるが、従来のOBSSとは異なり、CephストレージシステムはストライピングオブジェクトストレージのOSD(Object Storage Device、オブジェクトストレージデバイス)位置を記録するための独立したメタデータサーバを有せず、CRUSH(Controlled Replication Under Scalable Hashing、スケーラブルハッシング下でのコントロールドレプリケーション)アルゴリズムを用いてオブジェクトとオブジェクトのコピーバックアップのストレージ位置を確定する。データを再び検索し又はデータを修正する必要がある場合、データの読み書きアドレス指定過程は各OSDで独立して完了することができ、シングルノードのボトルネックが存在しない。このようなスケジューリング方式は、手作業ではなくソフトウェアに依存し、装置を交換又は追加するときに、ソフトウェアはオブジェクトのストレージ位置を自発的に計算することができ、データ回復及び容量拡張時の均等化を実現し、この過程は手作業による介入を必要としない。Cephの既存のCRUSHアルゴリズムは入力されたPG(Placement Group、プレイスメントグループ)により対応するハッシュHash演算を行い、1つのストレージマスターノードと複数のコピーノードを選択する機能をし、そのため、PGが変化しない場合、選択されるOSD組み合わせも変化せず、読み書きの初期アドレス指定機能を完成し、また、そのうちのOSDが変化すれば、他のノードからデータの回復を自発的に行うことができる。ストレージサービスリクエストは同じ大きさの小さいオブジェクトに分割され、小さいオブジェクトが集合して生成された論理グループPGは予め設定されたOSD重みに基づいてそれぞれのOSDに均等に割り当てることができ、それによりシステム及びメンテナンス作業者はOSDの状況を考慮する必要がない。しかし、OSD自体の相違性は完全に重みによって正確に反映することができず、重みは確率的選択問題だけであり、特定の割合ではなく、また、PGが全体的で均等に各OSD上に割り当てられる場合、各OSD上のPGデータが一致するとするが、PGの相違性が考慮されず、PGはオブジェクトの論理集合である(データエンティティではない)が、データの移行及びストレージの選択単位はPGを最小単位とし、オブジェクトのPGへのマッピングはHash演算により余りを求める結果であり、そのため、各PG上にマッピングされたオブジェクトが一致するわけではなく、PGの大きさも一致しない。また、ストレージ割り当てが不均等であると、シングルノードの使用過負荷を引き起こし、ストレージシステム全体を利用不能状態にさせることとなる。 The Ceph storage system is an Object-Based Storage System (OBSS), but unlike the traditional OBSS, the Ceph storage system records the OSD (Object Storage Device) location of the striping object storage. independent metadata server, and uses CRUSH (Controlled Replication Under Scalable Hashing) algorithm to determine the storage location of objects and object copy backups. If the data needs to be retrieved again or modified, the data read/write addressing process can be completed independently in each OSD, and there is no single-node bottleneck. Such a scheduling scheme relies on software rather than manual work, and when replacing or adding equipment, the software can autonomously calculate the storage location of objects, and balance during data recovery and capacity expansion. and the process does not require manual intervention. Ceph's existing CRUSH algorithm performs a corresponding Hash Hash operation according to the input PG (Placement Group), and has the function of selecting one storage master node and multiple copy nodes, so that the PG changes. Otherwise, the selected OSD combination will not change either, completing the read/write initial addressing function, and if the OSD of which changes, the data can be recovered spontaneously from other nodes. A storage service request is divided into small objects of the same size, and a logical group PG formed by aggregating small objects can be evenly assigned to each OSD based on a preset OSD weight, so that the system can And maintenance workers do not need to consider the OSD situation. However, the dissimilarity of the OSDs themselves cannot be fully and accurately reflected by the weights, the weights are only a probabilistic choice problem, not a specific percentage, and the PGs are distributed equally on each OSD globally. When assigned, the PG data on each OSD is assumed to be consistent, but differences in PGs are not considered, and PGs are logical collections of objects (not data entities), but data migration and storage selection units are PG is the minimum unit, and mapping of objects to PG is the result of finding the remainder by Hash operation. Therefore, the objects mapped on each PG do not match, and the sizes of PGs do not match. In addition, uneven storage allocation can lead to single-node usage overload, rendering the entire storage system unusable.

Cephのストレージ選択及びマッピング過程は従来使用されているMDS(MetaData Server、メタデータサーバ)のストレージシステムと同じではないため、従来の重みに基づく調整手段は移行の数及び移行の方向を正確に制御することができないとともに、今回の調整がデータのアバランチ(1つの過負荷になったOSDのデータ移行を調整すると、より多くのOSDの過負荷を引き起こすこととなる)を引き起こすか否かを予測することもできない。したがって、新たなCeph自動均等化ストレージ方法が必要となり、PGを使用する実際の状況に応じてリアルタイムのデータ移行を行うことができ、移行しながら、今回の移行がシステムのシングルノード使用率の均等化に対して良好な作用を有することを保証することができる。 Since Ceph's storage selection and mapping process is not the same as the traditionally used MDS (MetaData Server) storage system, conventional weight-based reconciliation means can precisely control the number of migrations and the direction of migration. and predict whether this adjustment will cause data avalanche (adjusting the data migration of one overloaded OSD will cause more OSDs to be overloaded). I can't. Therefore, a new Ceph automatic balancing storage method is required, which can perform real-time data migration according to the actual situation of using PG, and while migrating, this migration will make the system's single-node utilization rate even. It can be guaranteed to have a good effect on oxidization.

従来技術の上記問題に対して、階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法が提供され、本発明はCephストレージシステムに基づく分散作業タスクの環境におけるストレージの自動均等化を実現することができ、高負荷のシングルノードの自律的均等化調整を可能にし、データの移行方向及び移行の数を正確に制御し、それによりシステムの安定性を保証する。 In view of the above problems of the prior art, an automatic balancing storage method for Ceph storage system based on hierarchical mapping is provided, and the present invention can realize automatic storage balancing in the environment of distributed work tasks based on Ceph storage system. It enables autonomous balancing adjustment of high-load single nodes, and precisely controls the data migration direction and number of migrations, thereby ensuring system stability.

上記技術的課題を解決するために、本発明が採用する技術的解決手段は、
階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法であって、実施ステップは、
PGとOSDに新たな階層属性を与え、同一レベルのOSD集合論理でストレージプール全体を複数のサブストレージプールに分割し、PG階層とOSD階層を一対一に対応させ、PGを同一レベルのOSDストレージプールではなければ選択を行うことができないようにし、階層の変化に応じてPGに自由に移行できる能力を与えるとともに、Cephストレージシステムの既存のCRUSHアルゴリズムの新たなパラメータとしてランダム因子を加え、新たなOSD組み合わせの選択結果を指導し、PGに移行のより多くの選択を与えるステップ(1)と、
データを挿入する時に、単一のOSDの使用率とシステムの平均使用率との差を取得し、事前に設定された閾値と、閾値を超えるか否かについて比較し、閾値を超える場合、ステップ(3)に移行して均等化ストレージポリシーをトリガし、閾値を超えない場合、データを正常に挿入するステップ(2)と、
当該OSD内のPGの大きさに基づいてソートするキューを取得し、そのうち大きさが中央値にあるPGを選択して分析し、このPGが位置するOSDサブストレージプールと隣接するレベルのサブストレージプールの使用率で大きさをソートし、使用率レベルの最も低いサブストレージプールのレベルをPGの新たなレベルとするとともに、この新たなレベルの配置に基づいて、レベルをシードとして複数の乱数を生成して複数のランダム因子を生成し、ランダム因子をCRUSHアルゴリズムのパラメータとし、OSD組み合わせの選択結果を干渉し、複数の異なるOSD組み合わせを生成してデータをストレージさせるために用いられ、ランダム因子によって生成されたOSD組み合わせによるシステムの均等性への影響に基づいて対応する影響因子を生成し、最後に影響因子のソートに基づいて、影響因子が最も小さく、すなわちシステムの均等性への影響が最も小さいレベルを選択して影響因子と組み合わせ、PGに新たなグループ化属性を付与するステップ(3)と、を含む階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法である。
In order to solve the above technical problems, the technical solutions adopted by the present invention are:
An automatic balancing storage method for a Ceph storage system based on tier mapping, the implementing steps comprising:
A new hierarchical attribute is given to PG and OSD, the entire storage pool is divided into a plurality of sub-storage pools with OSD aggregation logic of the same level, the PG hierarchy and the OSD hierarchy are corresponded one-to-one, and the PG is OSD storage of the same level. In addition to making it impossible to make selections unless it is a pool, giving the ability to freely move to PG according to changes in the tier, adding a random factor as a new parameter to the existing CRUSH algorithm of the Ceph storage system, and creating a new Step (1) of guiding the OSD combination selection results and giving the PG more choices of transitions;
When inserting data, obtain the difference between the utilization rate of a single OSD and the average utilization rate of the system, compare with a preset threshold for whether or not the threshold is exceeded, and if the threshold is exceeded, step (2) transitioning to (3) to trigger a fair storage policy and, if the threshold is not exceeded, inserting the data successfully;
Obtaining a queue for sorting according to the size of PGs in the OSD, selecting and analyzing a PG whose size is in the median, and sub-storage at a level adjacent to the OSD sub-storage pool in which this PG is located. Sort the size by pool usage rate, set the level of the sub-storage pool with the lowest usage rate level as the new level of the PG, and based on the placement of this new level, generate multiple random numbers using the level as a seed. Generate a plurality of random factors, use the random factor as a parameter of the CRUSH algorithm, interfere with the selection result of the OSD combination, generate a plurality of different OSD combinations to store data, and use the random factor to Based on the effect of the generated OSD combinations on the system evenness, generate corresponding influence factors, and finally, based on the sorting of the influence factors, determine which influence factor is the smallest, i.e., the effect on the system evenness is the most. step (3) of selecting a small level and combining it with the influence factor to give the PG a new grouping attribute.

ステップ(1)の初期化過程において、主な初期化ステップは、OSDの階層属性を初期化する場合、手動で初期化を行い、PGの階層属性を初期化する場合、コンシステントハッシュアルゴリズムに基づいてPGを各ストレージプールに均一に分布することを含み、PGの大きさが予測できないため、初期に数量に基づいて比較的平均的な分布を行うことにより、システムを使い始めたばかりに大量の均等化移行が伴うことを回避する。任意選択的に、コンシステントhashアルゴリズムを使用してPGレベルを初期化してもよい。 In the initialization process of step (1), the main initialization steps are manual initialization when initializing the OSD hierarchy attribute, and based on the consistent hash algorithm when initializing the PG hierarchy attribute. Since the size of the PGs is unpredictable, doing a relatively average distribution based on the quantity at the beginning will allow a large amount of even distribution when the system is just getting started. avoid the accompanying migration. Optionally, a consistent hash algorithm may be used to initialize the PG level.

ステップ(1)においてランダム因子はCRUSHアルゴリズムの出力結果を指導するために用いられ、それは元のCRUSHアルゴリズムの選択過程を、
に変更する機能をし、
上式において、R<OSD>は選択されたi番目のOSD組み合わせであり、CRUSHアルゴリズムを呼び出す入力パラメータはPGIDとrであり、PGIDはPGの唯一の識別子であり、rはランダム因子である。このアルゴリズムに基づいて、ステップ(3)において複数グループのOSD組み合わせを生成することができ、そのうちから最適で、システムの均等性に対する影響が最も小さいOSD組み合わせを選択する。
In step (1) a random factor is used to guide the output of the CRUSH algorithm, which drives the selection process of the original CRUSH algorithm to:
function to change to
where R i <OSD> is the ith OSD combination selected, the input parameters to invoke the CRUSH algorithm are PGID and r i , PGID is the unique identifier of the PG, and r i is the random factor. is. Based on this algorithm, multiple groups of OSD combinations can be generated in step (3), from which the optimal OSD combination with the least impact on system uniformity is selected.

ステップ(2)において均等化ポリシーのトリガを生成する過程はデータを挿入する時、すなわちCRUSHアルゴリズムを行う過程において判断とトリガを行い、実現のためにグローバルの監視を導入することを必要とする。 The process of generating equalization policy triggers in step (2) requires making decisions and triggering when inserting data, i.e., in the process of performing the CRUSH algorithm, and introducing global oversight for implementation.

ステップ(3)において、影響因子はPG移行前の目標サブストレージプールの均等化ストレージ状況、及びPGがこの新たなレベル及び新たな影響因子に従って移行した後の目標サブストレージプールの均等化ストレージ状況を評価する機能をし、1つのサブストレージプールの均等化ストレージ状況に対して、その量子化の式は、
であり、
上式において、Mは当該サブストレージプールの平均使用率であり、xは当該サブストレージプールにおける各OSDの使用率であり、nはサブストレージプールにおけるOSDの数である。
In step (3), the influence factor determines the balanced storage status of the target sub-storage pool before the PG migration and the balanced storage status of the target sub-storage pool after the PG migrates according to this new level and the new impact factor. For the balanced storage situation of one sub-storage pool, the quantization formula is
and
In the above formula, M is the average usage rate of the sub-storage pool, xj is the usage rate of each OSD in the sub-storage pool, and n is the number of OSDs in the sub-storage pool.

あるPGのある回の移行前のβ値と移行後のβ値を用い、このPGによる今回の移行におけるシステムのストレージ均等化値に対する影響因子を得ることができる。
Using a PG's pre-migration β r value and post-migration β j value, we can obtain the impact factor on the system's storage balancing value for this PG's current migration.

ここで、あるグループの使用率はPG移行後にそのうち1つが1を超えると、このグループの影響因子は-1であり、それにより今回のPGの移行が新たなOSDの過負荷又は完全な利用不能を引き起こさないことを保証する。 Here, if the usage rate of a group exceeds 1 after one of them has been migrated to PG, the influence factor of this group is -1, so that this PG migrate will cause new OSD overload or complete unavailability. guaranteed not to cause

ステップ(1)はシステムにおけるハードウェアの計画及びサブストレージプールの配置をさらに含む。 Step (1) further includes hardware planning and placement of sub-storage pools in the system.

(一)従来のストレージデバイスを分類し、整理し、新たに分割されたサブストレージプールの大きさが合理的であることを確保し、原則としてPGのレベル割り当てのランダム性、PGのデータ書き込みのランダム性及び各ストレージプールの間の比較に使用率が参考として使用されることのため、各サブストレージプールの大きさが近接すれば最も好ましい。 (1) Classify and organize the existing storage devices, ensure that the size of the newly divided sub-storage pool is reasonable, as a general rule, the randomness of PG level allocation, the PG data writing It is most preferable if each sub-storage pool is close in size because of the randomness and utilization rate used as a reference for comparison between each storage pool.

(二)各ストレージプールに対して配置を行い、各ストレージプールは自体の閾値、ランダム因子の数を有することができる。 (2) Arrangement for each storage pool, each storage pool can have its own threshold, number of random factors.

ステップ(3)が完了した後、適切な移行オブジェクトがなければ、ステップ(2)にジャンプする。 After step (3) is completed, jump to step (2) if there is no suitable transition object.

従来技術に比べ、本発明は以下の利点を有する。均等化ストレージはリアルタイムをタイミングとし、過負荷行為が発生してはじめて行われる均等化操作ではなく、また、余分な計算資源及び人的資源を消費して監視する必要がなく、1つのストレージクラスタの全てのOSDに1つのレベル属性を追加し、それらを複数のレベルのサブストレージプールに分割するとともに、OSDレベルを基礎としてPGに1つのレベル属性を追加し、PGは同一レベルのサブストレージプールではなければ組み合わせを探してストレージすることができず、また、PGにランダム因子を加えてOSD選択過程を指導し、より多くの選択可能な組み合わせを生成させ、影響因子を加えて1つのPGの属性が変化した後に選択結果が変化することによるシステムの均等化ストレージに対する影響を量子化し、総ストレージプールにおいてシングルノードOSDに使用率の高すぎが発生した場合、そのうち大きさが中央値のPGを選択し、当該サブストレージプールと隣接するサブストレージプールの使用率情報に基づいてPG移行の方向を確定し、また、PGレベル、ランダム因子に基づいて対応する影響因子組み合わせを生成し、最適なレベルと影響因子組み合わせを選択して均等化調整を行う。本発明はリスク移転の思想を利用し、階層マッピングの原理を利用してストレージシステム全体を一つ一つのストレージ領域に分割し、局所のストレージデバイスの過負荷が発生する場合、ストレージデータを低リスク(低使用率)の領域に移転することができ、高負荷のストレージノードを緩和させ、ストレージリソースを合理的に利用するとともに、システムをより安定にする。 Compared with the prior art, the present invention has the following advantages. Balancing storage is timed in real-time, and the balancing operation is not performed only after an overload event occurs, and does not need to consume extra computational and human resources for monitoring, and can be used in a single storage cluster. A level attribute is added to all OSDs, dividing them into multiple levels of sub-storage pools, and a level attribute is added to PGs based on the OSD level. Also, add a random factor to the PG to guide the OSD selection process to generate more selectable combinations, add an influence factor to the attributes of one PG Quantify the impact on the system balance storage by changing the selection result after the change, and select the PG with the median size if the single node OSD is overutilized in the total storage pool. Then, the direction of PG migration is determined based on the usage rate information of the sub-storage pool adjacent to the sub-storage pool, and the corresponding combination of influence factors is generated based on the PG level and random factors, and the optimum level and Select an influencing factor combination to perform equalization adjustments. The present invention uses the concept of risk transfer, and uses the principle of hierarchical mapping to divide the entire storage system into individual storage areas, so that when the local storage device is overloaded, the storage data can be stored at low risk. It can be relocated to a (low utilization) area, relieving storage nodes with high load, rationally utilizing storage resources, and making the system more stable.

本発明の実施例の方法の基本的なフローチャートである。1 is a basic flow chart of a method of an embodiment of the invention; 本発明の実施例におけるランダム因子の生成過程の概略図である。FIG. 4 is a schematic diagram of a random factor generation process in an embodiment of the present invention; 本発明の実施例における影響因子の選択過程の概略図である。FIG. 4 is a schematic diagram of the selection process of influencing factors in an embodiment of the present invention;

以下、本発明の目的、技術的解決手段及び利点をさらに明確にするために、図面及び実施例を参照しながら、本発明について一層詳細に説明する。本明細書に説明される具体的な実施例は本発明を説明するためのものに過ぎず、本発明を限定するものではないことを理解されたい。また、以下説明される本発明の各実施形態に係る技術的特徴は、互いに矛盾しない限り、互いに組み合わせてもよい。 Hereinafter, the present invention will be described in more detail with reference to the drawings and examples in order to make the objectives, technical solutions and advantages of the present invention clearer. It should be understood that the specific examples described herein are for the purpose of illustrating the invention only and are not intended to limit the invention. Moreover, the technical features according to the embodiments of the present invention described below may be combined with each other as long as they do not contradict each other.

図1に示すように、本実施例の階層マッピングに基づくCephストレージシステムの自動均等化ストレージのフローは以下の(1)~(4)を含む。 As shown in FIG. 1, the automatic balancing storage flow of the Ceph storage system based on tier mapping of this embodiment includes the following (1) to (4).

(1)PGとOSDに新たな階層属性を与え、同一レベルのOSD集合論理でストレージプール全体を複数のサブストレージプールに分割する。 (1) Give PGs and OSDs new hierarchical attributes, and divide the entire storage pool into multiple sub-storage pools with the same level of OSD aggregation logic.

(2)また、PG階層とOSD階層を一対一に対応させ、PGを同一レベルのOSDストレージプールではなければ選択を行うことができないようにし、階層の変化に応じてPGに自由に移行できる能力を与える。 (2) Also, the PG hierarchy and the OSD hierarchy are made to correspond one-to-one, so that the PG cannot be selected unless it is an OSD storage pool of the same level, and the ability to freely migrate to the PG according to changes in the hierarchy. give.

(3)データを挿入する時に、OSDの使用率とシステムの平均使用率との間の比較結果が予め設定された閾値を超えるか否かに基づいて、閾値を超える場合、本発明におけるPGの移行方法をトリガして均等化の目的を達成し、閾値に達しない場合、データを正常に書き込む。 (3) when inserting data, based on whether the comparison result between the OSD usage rate and the average usage rate of the system exceeds a preset threshold, if the threshold is exceeded, the PG in the present invention If the migration method is triggered to achieve the equalization objective and the threshold is not reached, the data is successfully written.

(4)単一のOSDとシステムの平均使用率との比較により、閾値を超える場合、本発明の均等化ストレージポリシーをトリガし、当該ポリシーはシステムのストレージ分布を均一化し、局所のOSDの突出した使用率を低下させ、当該ポリシーを使用した後にOSDの使用率がプリセット値(例えば100)となり、すなわち既に全負荷となる場合、書き込みを拒否する。100未満の場合、データを正常に書き込む。 (4) If the threshold is exceeded by comparing a single OSD with the average utilization of the system, triggering the equalization storage policy of the present invention, which equalizes the storage distribution of the system and causes local OSDs to protrude. If after using the policy the OSD's utilization is at a preset value (eg 100), i.e. already at full load, writes are rejected. If less than 100, write data successfully.

図2に示すように、本実施例におけるランダム因子の生成ステップは以下の(1)~(4)を含む。 As shown in FIG. 2, the step of generating random factors in this embodiment includes the following (1) to (4).

(1)目標サブストレージプールの配置を取得し、最大のランダム因子の数を取得し、サブストレージプールを分割した後に毎回の計算規模が小さくなるため、同じ組み合わせを生成しないため、ここで判断する必要があり、ランダム因子の最大個数が比較的低い場合はランダム因子の選択を迅速に完了することができ、均等化の高効率を保証し、また、比較的高い場合は十分に多くのランダムテストを行うことができることを保証して、システムの高可用性を保証する。 (1) Get the allocation of the target sub-storage pool, get the maximum number of random factors, and after splitting the sub-storage pool, the calculation scale will be smaller each time, so the same combination will not be generated, so make a decision here If the maximum number of random factors is relatively low, the selection of random factors can be completed quickly, ensuring high efficiency of equalization, and if the maximum number of random factors is relatively high, a sufficiently large number of random tests ensure high availability of the system.

(2)本実施例において、ランダム因子はパラメータとしてCRUSHアルゴリズムの選択過程を干渉する機能をし、そのため、ランダム因子の生成はPGのレベルをシードとしてC言語に付属する乱数の生成方法を使用すればよく、ランダム因子を使用して選択されたOSD組み合わせのアルゴリズムのプロセスは、
であり、
上式において、R<OSD>は選択されたi番目のOSD組み合わせであり、CRUSHアルゴリズムを呼び出す入力パラメータはPGIDとrであり、PGIDはPGの唯一の識別子であり、rはランダム因子である。
(2) In this embodiment, the random factor functions as a parameter to interfere with the selection process of the CRUSH algorithm, so that the random factor generation should use the random number generation method attached to the C language with the level of PG as a seed. The algorithmic process of OSD combinations selected using a random factor may be:
and
where R i <OSD> is the ith OSD combination selected, the input parameters to invoke the CRUSH algorithm are PGID and r i , PGID is the unique identifier of the PG, and r i is the random factor. is.

(3)1つごとのOSD組み合わせの例を選択した後、まずこの組み合わせが既に選択されたか否かを判断し、当該組み合わせが既に選択結果内に存在すれば、今回の選択をスキップし、OSD選択を再び行い、当該組み合わせがなければ、保存する。 (3) After selecting each OSD combination example, first determine whether this combination has already been selected, and if the combination already exists in the selection result, skip the current selection, and Make the selection again, and save if the combination does not exist.

(4)組み合わせの数が既にこのOSDサブストレージプールの要求に達すれば、OSD組み合わせの選択過程を終了し、そうでなければステップ(2)にジャンプして選択を継続する。 (4) If the number of combinations has already reached the demand of this OSD sub-storage pool, end the OSD combination selection process, otherwise jump to step (2) to continue selection.

図3に示すように、本実施例において、影響因子の計算及び選択はPG属性の変化を指導し、影響因子はPG移行前の目標サブストレージプールの均等化ストレージ状況を評価する機能をし、その指導ステップは以下(1)~(5)を含む。 As shown in FIG. 3, in this embodiment, the calculation and selection of influence factors guide the change of PG attributes, the influence factors serve to evaluate the balanced storage status of the target sub-storage pool before PG migration, The instruction steps include the following (1) to (5).

(1)PGの新たなレベルとランダム因子に対応するOSD組み合わせをロードする。 (1) Load the OSD combination corresponding to the new level of PG and the random factor.

(2)これらのOSD組み合わせを繰り返し、全ての計算が完了すると、このフローを終了し、まだ計算されない組み合わせがあると、次のステップにジャンプする。 (2) Repeat these OSD combinations, and when all calculations are completed, terminate this flow, and jump to the next step if there are combinations that have not yet been calculated.

(3)現在のシステムの均等化パラメータを計算し、1つのサブストレージプールの均等化ストレージ状況に対して、その量子化の式は、
であり、
上式において、Mは当該サブストレージプールの平均使用率であり、xは当該サブストレージプールにおける各OSDの使用率であり、nはサブストレージプールにおけるOSDの数である。
(3) Calculate the balancing parameters of the current system, and for the balancing storage situation of one sub-storage pool, its quantization formula is:
and
In the above formula, M is the average usage rate of the sub-storage pool, xj is the usage rate of each OSD in the sub-storage pool, and n is the number of OSDs in the sub-storage pool.

(4)上式に従って、当該PGがこの時のランダム因子で移行した後のシステム均等化パラメータβを計算する。 (4) Calculate the system equalization parameter β j after the PG shifts with the random factor at this time according to the above equation.

(5)あるPGのある回の移行前のβ値と移行後のβ値を用い、このPGによる今回の移行におけるシステムのストレージ均等化値に対する影響因子を得ることができる。
(5) Using a PG's pre-migration β value and post-migration β value, we can obtain the influence factor on the system's storage balancing value for this PG's current migration.

ここで、あるグループの使用率はPG移行後にそのうち1つが1を超えると、このグループの影響因子は-1であり、それにより今回のPGの移行が新たなOSDの過負荷又は完全な利用不能を引き起こさないことを保証し、本実施例において、-1であれば、今回の結果を使用せず、今回の計算を直接放棄する。 Here, if the usage rate of a group exceeds 1 after one of them has been migrated to PG, the influence factor of this group is -1, so that this PG migrate will cause new OSD overload or complete unavailability. , and in this example, if it is -1, we do not use the current result and directly abandon the current computation.

本実施例の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法は、ストレージクラスタ全体における単一のOSDの過負荷によるシステム全体の利用不能の問題を解決することを目的とし、Cephストレージシステムの特性により、データが各OSDに均一に分布しているように見え、そのため、重み値が同じの場合にOSDの相違性は局所的過負荷の状況を模擬することができる。本実施例は様々なOSDと様々なストレージプールの分割方法を用いて初期化を行い、最大書き込み量を評価基準とし、最大書き込みでのシステム崩壊までの総データ量により本発明の有効性を判別する。その結果、本発明は単一OSDの過負荷によるシステム崩壊の状況を効果的に緩和できることが示される。 The automatic balancing storage method of the Ceph storage system based on tier mapping in this embodiment aims to solve the problem of unavailability of the entire system due to overloading of a single OSD in the entire storage cluster. By nature, the data appears to be evenly distributed across each OSD, so that OSD differences can mimic local overload situations when the weight values are the same. In this embodiment, initialization is performed using various OSDs and various storage pool division methods, and the maximum write amount is used as the evaluation criterion, and the effectiveness of the present invention is determined by the total amount of data until the system collapses at the maximum write amount. do. The results show that the present invention can effectively mitigate the situation of system collapse due to single OSD overload.

当業者であれば容易に理解されるように、以上の記載は本発明の好適な実施例に過ぎず、本発明を限定するものではなく、本発明の精神及び原則内で行われる全ての修正、同等の置換及び改善などは、いずれも本発明の保護範囲内に含まれるべきである。 As a person skilled in the art will readily appreciate, the above description is merely a preferred embodiment of the present invention and is not intended to limit the present invention, and all modifications made within the spirit and principles of the present invention. , equivalent replacements and improvements, etc. shall all fall within the protection scope of the present invention.

Claims (8)

階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法であって、実施ステップは、
PGとOSDに新たな階層属性を与え、同一レベルのOSD集合論理でストレージプール全体を複数のサブストレージプールに分割し、PG階層とOSD階層を一対一に対応させ、PGを同一レベルのOSDストレージプールではなければ選択を行うことができないようにし、階層の変化に応じてPGに自由に移行できる能力を与えるとともに、Cephストレージシステムの既存のCRUSHアルゴリズムの新たなパラメータとしてランダム因子を加え、新たなOSD組み合わせの選択結果を指導し、PGに移行のより多くの選択を与えるステップ(1)と、
データを挿入する時に、単一のOSDの使用率とシステムの平均使用率との差を取得し、事前に設定された閾値と、閾値を超えるか否かについて比較し、閾値を超える場合、ステップ(3)に移行して均等化ストレージポリシーをトリガし、閾値を超えない場合、データを正常に挿入するステップ(2)と、
当該OSD内のPGの大きさに基づいてソートするキューを取得し、そのうち大きさが中央値にあるPGを選択して分析し、このPGが位置するOSDサブストレージプールと隣接するレベルのサブストレージプールの使用率で大きさをソートし、使用率レベルの最も低いサブストレージプールのレベルをPGの新たなレベルとするとともに、この新たなレベルの配置に基づいて、レベルをシードとして複数の乱数を生成して複数のランダム因子を生成し、ランダム因子をCRUSHアルゴリズムのパラメータとし、OSD組み合わせの選択結果を干渉し、複数の異なるOSD組み合わせを生成してデータをストレージさせるために用いられ、ランダム因子によって生成されたOSD組み合わせによるシステムの均等性への影響に基づいて対応する影響因子を生成し、最後に影響因子のソートに基づいて、影響因子が最も小さく、すなわちシステムの均等性への影響が最も小さいレベルを選択して影響因子と組み合わせ、PGに新たなグループ化属性を付与するステップ(3)と、を含む、ことを特徴とする階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。
An automatic balancing storage method for a Ceph storage system based on tier mapping, the implementing steps comprising:
A new hierarchical attribute is given to PG and OSD, the entire storage pool is divided into a plurality of sub-storage pools with OSD aggregation logic of the same level, the PG hierarchy and the OSD hierarchy are corresponded one-to-one, and the PG is OSD storage of the same level. In addition to making it impossible to make selections unless it is a pool, giving the ability to freely move to PG according to changes in the tier, adding a random factor as a new parameter to the existing CRUSH algorithm of the Ceph storage system, and creating a new Step (1) of guiding the OSD combination selection results and giving the PG more choices of transitions;
When inserting data, obtain the difference between the utilization rate of a single OSD and the average utilization rate of the system, compare with a preset threshold for whether or not the threshold is exceeded, and if the threshold is exceeded, step (2) transitioning to (3) to trigger a fair storage policy and, if the threshold is not exceeded, inserting the data successfully;
Obtaining a queue for sorting based on the size of PGs in the OSD, selecting and analyzing a PG whose size is in the median, and sub-storage at a level adjacent to the OSD sub-storage pool in which this PG is located. Sort the size by pool usage rate, set the level of the sub-storage pool with the lowest usage rate level as the new level of PG, and based on the placement of this new level, generate multiple random numbers using the level as a seed. Generate a plurality of random factors, use the random factor as a parameter of the CRUSH algorithm, interfere with the selection result of the OSD combination, generate a plurality of different OSD combinations to store data, and use the random factor to Based on the effect of the generated OSD combination on the system evenness, generate the corresponding influence factors, and finally, based on the sorting of the influence factors, the influence factor is the smallest, i.e., it has the most influence on the system evenness. (3) selecting a small level and combining it with an influencing factor to give a new grouping attribute to the PG.
ステップ(1)において、OSDの階層属性を初期化する場合、手動で初期化を行う、ことを特徴とする請求項1に記載の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。 The automatic balancing storage method for Ceph storage system based on hierarchical mapping according to claim 1, characterized in that when initializing the hierarchical attributes of OSDs in step (1), the initialization is done manually. ステップ(1)において、PGの階層属性を初期化する場合、コンシステントハッシュアルゴリズムに基づいてPGを各ストレージプールに均一に分布し、PGの大きさが予測できないため、初期に数量に基づいて比較的平均的な分布を行うことにより、システムを使い始めたばかりに大量の均等化移行が伴うことを回避する、ことを特徴とする請求項1又は2に記載の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。 In step (1), when initializing the tier attributes of PGs, the PGs are uniformly distributed in each storage pool based on the consistent hash algorithm, and the size of the PGs is unpredictable, so the comparison is based on the quantity initially. Automatic Ceph storage system based on tier mapping according to claim 1 or 2, characterized in that by performing a symmetrical average distribution, avoiding a large number of equalization migrations when the system is just beginning to be used. Balanced storage method. ステップ(1)においてランダム因子はCRUSHアルゴリズムの出力結果を指導するために用いられ、それは元のCRUSHアルゴリズムの選択過程を、
に変更する機能をし、
上式において、R<OSD>は選択されたi番目のOSD組み合わせであり、CRUSHアルゴリズムを呼び出す入力パラメータはPGIDとrであり、PGIDはPGの唯一の識別子であり、rはランダム因子である、ことを特徴とする請求項1又は2に記載の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。
In step (1) a random factor is used to guide the output of the CRUSH algorithm, which drives the selection process of the original CRUSH algorithm to:
function to change to
where R i <OSD> is the ith OSD combination selected, the input parameters to invoke the CRUSH algorithm are PGID and r i , PGID is the unique identifier of the PG, and r i is the random factor. The automatic balancing storage method for Ceph storage system based on hierarchical mapping according to claim 1 or 2, characterized in that:
ステップ(2)において均等化ポリシーのトリガを生成する過程はデータを挿入する時、すなわちCRUSHアルゴリズムを行う過程において判断とトリガを行い、実現のためにグローバルの監視を導入することを必要とする、ことを特徴とする請求項1又は2に記載の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。 The process of generating a trigger for the fairness policy in step (2) requires making judgments and triggering when inserting data, i.e., in the process of performing the CRUSH algorithm, and introducing global monitoring for implementation; The automatic balancing storage method for Ceph storage system based on hierarchical mapping according to claim 1 or 2, characterized in that: ステップ(3)において、影響因子はPG移行前の目標サブストレージプールの均等化ストレージ状況、及びPGがこの新たなレベル及び新たな影響因子に従って移行した後の目標サブストレージプールの均等化ストレージ状況を評価する機能をし、具体的には、
1つのサブストレージプールの均等化ストレージ状況に対して、その量子化の式は、

であり、
ここで、Mは当該サブストレージプールの平均使用率であり、xは当該サブストレージプールにおける各OSDの使用率であり、nはサブストレージプールにおけるOSDの数であり、
あるPGのある回の移行前のβ値と移行後のβ値を用い、このPGによる今回の移行におけるシステムのストレージ均等化値に対する影響因子を得ることができ、
ここで、あるグループの使用率はPG移行後にそのうち1つが1を超えると、このグループの影響因子は-1であり、それにより今回のPGの移行が新たなOSDの過負荷又は完全な利用不能を引き起こさないことを保証する、ことを特徴とする請求項2に記載の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。
In step (3), the influence factor determines the balanced storage status of the target sub-storage pool before the PG migration and the balanced storage status of the target sub-storage pool after the PG migrates according to this new level and the new impact factor. It has a function to evaluate, specifically,
For the balanced storage situation of one sub-storage pool, the quantization formula is

and
Here, M is the average usage rate of the sub-storage pool, x j is the usage rate of each OSD in the sub-storage pool, n is the number of OSDs in the sub-storage pool,
Using the pre-migration β r value and the post-migration β j value of a PG, we can obtain the influence factor on the storage balancing value of the system in this migration by this PG,
Here, if the usage rate of a group exceeds 1 after one of them has been migrated to PG, the influence factor of this group is -1, so that this PG migrate will cause new OSD overload or complete unavailability. The automatic balancing storage method for Ceph storage system based on hierarchical mapping according to claim 2, characterized in that it ensures that no .
ステップ(1)はストレージシステムにおけるハードウェアの計画及びサブストレージプールの配置をさらに含み、具体的には、
従来のストレージデバイスを分類し、整理し、新たに分割されたサブストレージプールの大きさが合理的であることを確保し、PGのレベル割り当てのランダム性、PGのデータ書き込みのランダム性及び各ストレージプールの間の比較に使用率が参考として使用され、各サブストレージプールの大きさが近接し、
各サブストレージプールに対して配置を行い、各サブストレージプールは自体の閾値、ランダム因子の数を有することができる、ことを特徴とする請求項1に記載の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。
Step (1) further includes hardware planning and sub-storage pool placement in the storage system, specifically:
Classify and organize the conventional storage device, ensure that the size of the newly divided sub-storage pool is reasonable, PG level allocation randomness, PG data writing randomness and each storage Utilization is used as a reference for comparison between pools, the size of each sub-storage pool is close,
The automated Ceph storage system based on tier mapping as claimed in claim 1, wherein allocation is performed for each sub-storage pool, and each sub-storage pool can have its own threshold, number of random factors. Balanced storage method.
ステップ(3)が完了した後、適切な移行オブジェクトがなければ、ソートしたキューから当該PGを取り除き、ステップ(2)にジャンプする、ことを特徴とする請求項1に記載の階層マッピングに基づくCephストレージシステムの自動均等化ストレージ方法。 2. The Ceph based hierarchical mapping of claim 1, wherein after step (3) is completed, if there is no suitable migration object, remove the PG from the sorted queue and jump to step (2). An automatic balancing storage method for a storage system.
JP2023503089A 2020-08-01 2021-05-17 Automatic Balancing Storage Method for Ceph Storage Systems Based on Hierarchical Mapping Pending JP2023536693A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010763358.5 2020-08-01
CN202010763358.5A CN111880747B (en) 2020-08-01 2020-08-01 Automatic balanced storage method of Ceph storage system based on hierarchical mapping
PCT/CN2021/094042 WO2022028033A1 (en) 2020-08-01 2021-05-17 Hierarchical mapping-based automatic balancing storage method for ceph storage system

Publications (1)

Publication Number Publication Date
JP2023536693A true JP2023536693A (en) 2023-08-29

Family

ID=73205010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023503089A Pending JP2023536693A (en) 2020-08-01 2021-05-17 Automatic Balancing Storage Method for Ceph Storage Systems Based on Hierarchical Mapping

Country Status (3)

Country Link
JP (1) JP2023536693A (en)
CN (1) CN111880747B (en)
WO (1) WO2022028033A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111880747B (en) * 2020-08-01 2022-11-08 广西大学 Automatic balanced storage method of Ceph storage system based on hierarchical mapping
CN112463043B (en) * 2020-11-20 2023-01-10 苏州浪潮智能科技有限公司 Storage cluster capacity expansion method, system and related device
CN112231137B (en) * 2020-12-14 2021-03-30 广东睿江云计算股份有限公司 Rebalancing method and system for distributed storage data
CN115277736A (en) * 2022-07-25 2022-11-01 中国工商银行股份有限公司 Automatic data balancing method and device for distributed block storage
CN115202589B (en) * 2022-09-14 2023-02-24 浪潮电子信息产业股份有限公司 Placement group member selection method, device and equipment and readable storage medium
CN115796636B (en) * 2022-10-19 2023-07-14 江苏领悟信息技术有限公司 Double random extraction method for detection and inspection
CN116737380B (en) * 2023-06-16 2024-02-09 深圳市青葡萄科技有限公司 Balanced storage method, device and equipment for distributed memory and storage medium
CN116761177B (en) * 2023-08-21 2023-10-20 云镝智慧科技有限公司 Data acquisition method based on 5G gateway and related device thereof

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101074454B1 (en) * 2009-08-18 2011-10-18 연세대학교 산학협력단 Adaptive equalization device and equalizing method
US9116630B2 (en) * 2013-08-30 2015-08-25 Nimble Storage, Inc. Method and system for migrating data between storage devices of a storage array
CN103645860B (en) * 2013-11-27 2017-01-25 华为技术有限公司 Memory space management method and memory management device
CN106055277A (en) * 2016-05-31 2016-10-26 重庆大学 Decentralized distributed heterogeneous storage system data distribution method
CN106991170A (en) * 2017-04-01 2017-07-28 广东浪潮大数据研究有限公司 A kind of method and apparatus of distributed document capacity equilibrium
CN108509157A (en) * 2018-04-13 2018-09-07 郑州云海信息技术有限公司 A kind of data balancing method and device applied to distributed file system
US11119654B2 (en) * 2018-07-10 2021-09-14 International Business Machines Corporation Determining an optimal storage environment for data sets and for migrating data sets
US10713155B2 (en) * 2018-07-19 2020-07-14 Micron Technology, Inc. Biased sampling methodology for wear leveling
US10795810B2 (en) * 2018-09-10 2020-10-06 Micron Technology, Inc. Wear-leveling scheme for memory subsystems
CN109344143A (en) * 2018-10-25 2019-02-15 电子科技大学成都学院 A kind of distributed type assemblies Data Migration optimization method based on Ceph
CN109614276B (en) * 2018-11-28 2021-09-21 平安科技(深圳)有限公司 Fault processing method and device, distributed storage system and storage medium
CN111880747B (en) * 2020-08-01 2022-11-08 广西大学 Automatic balanced storage method of Ceph storage system based on hierarchical mapping

Also Published As

Publication number Publication date
CN111880747B (en) 2022-11-08
CN111880747A (en) 2020-11-03
WO2022028033A1 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
JP2023536693A (en) Automatic Balancing Storage Method for Ceph Storage Systems Based on Hierarchical Mapping
CN109196459B (en) Decentralized distributed heterogeneous storage system data distribution method
US9600337B2 (en) Congestion avoidance in network storage device using dynamic weights
WO2018076791A1 (en) Resource load balancing control method and cluster scheduler
US9940022B1 (en) Storage space allocation for logical disk creation
CN106293871A (en) A kind of resource regulating method of cluster virtual machine
CN106610903A (en) Tiered storage system, storage controller, and method for deduplication and storage tiering
JPH05225066A (en) Method for controlling priority-ordered cache
KR20120092930A (en) Distributed memory cluster control apparatus and method using map reduce
CN104317742A (en) Automatic thin-provisioning method for optimizing space management
US10810054B1 (en) Capacity balancing for data storage system
CN111596868B (en) Load balancing method and system of distributed storage system based on segment unit
CN108920100B (en) Ceph-based read-write model optimization and heterogeneous copy combination method
CN1602480A (en) Managing storage resources attached to a data network
WO2020134364A1 (en) Virtual machine migration method, cloud computing management platform, and storage medium
Dieye et al. On achieving high data availability in heterogeneous cloud storage systems
US11513849B2 (en) Weighted resource cost matrix scheduler
US20210390405A1 (en) Microservice-based training systems in heterogeneous graphic processor unit (gpu) cluster and operating method thereof
CN110928676B (en) Power CPS load distribution method based on performance evaluation
CN114063888A (en) Data storage system, data processing method, terminal and storage medium
Gao et al. Compact, popularity-aware and adaptive hybrid data placement schemes for heterogeneous cloud storage
CN115576924A (en) Data migration method
CN108833295A (en) The virtual network method for reconfiguration based on TABU search towards SDN
CN116820324A (en) Storage capacity expansion method and device, storage medium and electronic equipment
Guo et al. Handling data skew at reduce stage in Spark by ReducePartition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402