CN112905118B - 一种集群的存储池创建方法 - Google Patents
一种集群的存储池创建方法 Download PDFInfo
- Publication number
- CN112905118B CN112905118B CN202110188470.5A CN202110188470A CN112905118B CN 112905118 B CN112905118 B CN 112905118B CN 202110188470 A CN202110188470 A CN 202110188470A CN 112905118 B CN112905118 B CN 112905118B
- Authority
- CN
- China
- Prior art keywords
- cache
- nodes
- physical
- creating
- physical node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
- G06F3/0607—Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0656—Data buffering arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
本发明公开了一种集群的存储池创建方法包括:为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;在多个根上分别创建存储池并形成作为多副本存储池的故障域。本发明能够合理划分集群的故障域,提升集群容错能力。
Description
技术领域
本发明涉及集群领域,更具体地,特别是指一种集群的存储池创建方法。
背景技术
集群监控模块是分布式文件系统的核心模块,其主要功能是管理集群和监控集群的各种状态,并负责响应各种命令。管理软件不是构成分布式文件系统的基本模块,而是一个独立于集群的外部模块。管理软件通过与集群监控交互来实现对集群的管理和监控。管理软件是个图形化的web应用软件,管理软件可以方便用户进行集群部署、扩容、缩容以及集群资源划分等。
故障域是进行故障隔离的一个概念,也是PG(放置组)分布的一个概念,即PG分布是以故障域为单位进行隔离的。比如三副本的多副本存储池,以节点为单位划分故障域时,则PG的三个副本将分别分布在三个不同节点的3个不同的OSD(对象存储设备)上,一个节点断电则存储池的PG至多只会故障一个副本,还有两个副本可以正常工作,这也要求至少需要3个节点才能划分三副本节点级故障域的存储池。同理,基于纠删码的存储池如果是以节点作为故障域,则至少需要K+M个节点。三副本对容量的利用率理论上是三分之一,即33.33%,纠删码对容量的利用率取决于K和M的值,以纠删8+2为例,理论上上的利用率为80%。按照节点级故障域的概念,8+2纠删码存储池需要10个节点才行。现有技术通过划分逻辑节点来达到满足故障域的要求。比如5个物理节点,可以通过将每个物理节点上的OSD一比一划分到两个逻辑节点下,这样就在5个物理节点上模拟出10个逻辑节点,这样就可以在10个逻辑节点上创建8+2的纠删码存储池,按照故障域的概念,这种模拟出的逻辑节点中如果有一个发生OSD故障不会影响其他逻辑节点,按照故障域的概念,这种模拟出的8+2纠删存储池最多允许同时故障两个逻辑节点的OSD。
在集群的实际应用场景中,为了提高集群的性能,会使用SSD(固态硬盘)作为缓存或者日志加速等,这样就增加了OSD与SSD之间的耦合度,让集群变得复杂。为了达到经济性和高性能的折中,一块SSD会被多个OSD共享。这就造成了OSD和SSD的高耦合,当一个SSD发生故障时,共享该SSD的OSD都会发生异常,造成这些OSD故障无法使用。于此同时,由于故障域划分时并未考虑到OSD共享SSD的情况以及模拟逻辑节点的情况,这会造成共享同一个SSD的OSD被划分到两个不同的逻辑节点上,当该SSD故障时,就会造成两个不同的逻辑节点的OSD发生故障;当两个物理节点上各有一块SSD发生故障时就会造成4个逻辑节点的OSD发生故障,这样就超出了故障域,造成存储池无法使用。
针对现有技术集群存储池的故障干扰性强、容错能力低下的问题,目前尚无有效的解决方案。
发明内容
有鉴于此,本发明实施例的目的在于提出一种集群的存储池创建方法,能够合理划分集群的故障域,提升集群容错能力。
基于上述目的,本发明实施例的第一方面提供了一种集群的存储池创建方法,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;
基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;
将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;
在多个根上分别创建存储池并形成作为多副本存储池的故障域。
在一些实施方式中,为每个物理节点中的每个对象存储设备均在对应的物理节点中的一个缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在多个缓存设备上均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中执行以下步骤:
响应于确定物理节点的数量不足多副本存储池的副本数量而反馈失败并停止创建;
响应于确定物理节点的数量达到或超过多副本存储池的副本数量,而在指定的对象存储设备所在的物理节点上分别创建存储池并形成作为多副本存储池的故障域。
在一些实施方式中,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
将每个物理节点上的多个缓存设备分为两组,并为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一组缓存设备上创建缓存分区;
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将与两组缓存设备相对应的两组对象存储设备分别划分到与每个物理节点相对应的两个逻辑主机上;
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,将每个物理节点上的多个缓存设备分为两组包括:将多个缓存设备分为数量均匀的两组;为每个物理节点中的每个对象存储设备均在对应的物理节点中的一组缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在两组缓存设备之间均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中,响应于确定物理节点的数量达到或超过纠删码存储池的期望节点数量的一半并且物理节点兼容模拟逻辑主机而执行以下步骤:
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将每个物理节点上的多个对象存储设备平均划分到与每个物理节点相对应的两个逻辑主机上。
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,方法还包括:响应于确定物理节点的数量不足纠删码存储池的期望节点数量的一半、或物理节点的数量不足纠删码存储池的期望节点数量并且物理节点不兼容模拟逻辑主机,而反馈失败并停止创建。
在一些实施方式中,期望节点包括原始数据存储节点和冗余数据存储节点;期望节点数量为原始数据存储节点数量和冗余数据存储节点数量之和。
在一些实施方式中,集群为分布式文件系统的存储集群。
在一些实施方式中,缓存设备包括配置为加速缓存日志的日志加速设备;缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
本发明具有以下有益技术效果:本发明实施例提供的集群的存储池创建方法,通过为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;在多个根上分别创建存储池并形成作为多副本存储池的故障域的技术方案,能够合理划分集群的故障域,提升集群容错能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的集群的存储池创建方法的流程示意图;
图2为本发明提供的集群的存储池创建方法的多副本存储池的期望结构示意图;
图3为本发明提供的集群的存储池创建方法的纠删码存储池的期望结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种合理划分集群的故障域,提升集群容错能力的集群的存储池创建方法的一个实施例。图1示出的是本发明提供的集群的存储池创建方法的流程示意图。
所述的集群的存储池创建方法,如图1所示,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
步骤S101,为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;
步骤S103,基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;
步骤S105,将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;
步骤S107,在多个根上分别创建存储池并形成作为多副本存储池的故障域。
本发明优化了故障域划分的流程,识别出OSD的耦合场景,在故障域划分时将OSD从物理上分离开,让故障域更加匹配集群的硬件环境和应用场景,故障域的划分更加合理、科学。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。所述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
在一些实施方式中,为每个物理节点中的每个对象存储设备均在对应的物理节点中的一个缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在多个缓存设备上均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中执行以下步骤:
响应于确定物理节点的数量不足多副本存储池的副本数量而反馈失败并停止创建;
响应于确定物理节点的数量达到或超过多副本存储池的副本数量,而在指定的对象存储设备所在的物理节点上分别创建存储池并形成作为多副本存储池的故障域。
在一些实施方式中,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
将每个物理节点上的多个缓存设备分为两组,并为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一组缓存设备上创建缓存分区;
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将与两组缓存设备相对应的两组对象存储设备分别划分到与每个物理节点相对应的两个逻辑主机上;
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,将每个物理节点上的多个缓存设备分为两组包括:将多个缓存设备分为数量均匀的两组;为每个物理节点中的每个对象存储设备均在对应的物理节点中的一组缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在两组缓存设备之间均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中,响应于确定物理节点的数量达到或超过纠删码存储池的期望节点数量的一半并且物理节点兼容模拟逻辑主机而执行以下步骤:
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将每个物理节点上的多个对象存储设备平均划分到与每个物理节点相对应的两个逻辑主机上。
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,方法还包括:响应于确定物理节点的数量不足纠删码存储池的期望节点数量的一半、或物理节点的数量不足纠删码存储池的期望节点数量并且物理节点不兼容模拟逻辑主机,而反馈失败并停止创建。
在一些实施方式中,期望节点包括原始数据存储节点和冗余数据存储节点;期望节点数量为原始数据存储节点数量和冗余数据存储节点数量之和。
在一些实施方式中,集群为分布式文件系统的存储集群。
在一些实施方式中,缓存设备包括配置为加速缓存日志的日志加速设备;缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
下面具体实施例进一步阐述本发明的具体实施方式:
1.无SSD场景
1.1多副本方式创建存储池
(1)物理节点少于副本个数的给客户返回失败提示。
(2)物理节点大于等于副本个数时,基于图2所示的结构按照实际选择的硬盘(此处指OSD)进行故障域划分。
1.2纠删码方式创建存储池
(1)物理节点少于K+M之和且未选择已模拟逻辑节点进行存储池划分则直接返回失败提示。
(2)物理节点少于K+M之和且选择了模拟逻辑节点进行存储池划分的,若物理节点少于(K+M)/2的则直接返回失败提示。
(3)物理节点少于K+M之和且选择了模拟逻辑节点进行存储池划分的,若物理节点大于等于(K+M)/2的则基于图3所示的结构按照如下步骤进行故障域划分:
a.创建一个新的root(根)。
b.为每一个物理节点创建一个chasis(底盘)结构(在图3中,以节点名为hostA为例,创建hostA_cs的chasis结构)。
c.为每一个物理节点创建两个host结构(以节点名为hostA为例,创建hostA_n1和hostA_n2两个逻辑节点)。
d.遍历物理节点下的OSD列表,将索引值为奇数的OSD添加到后缀为n1的逻辑节点上,将索引值为偶数的OSD添加到后缀为n2的逻辑节点上。
例如,图3示出了三个物理节点hostA、hostB、hostC如何创建4+2存储池为例,每个物理节点模拟出两个逻辑host,这样就有了6个逻辑host,从而支持4+2纠删码存储池,创建的存储池的PG的4个数据成员和2个校验成员分别分布在这6个逻辑host的OSD上。
2.有SSD场景
2.1多副本方式创建存储池
2.1.1每个节点只有1个SSD的场景跟1.1的划分方式一样。
2.1.2每个节点有多个SSD的场景(各个节点的配置一样,每个节点的SSD一样多)划分故障域的方式如下(以每个节点有2个SSD为例):
a.为每个OSD在SSD上创建一个缓存分区(或日志加速分区),将缓存分区(或日志加速分区)均匀的分布在各个SSD上。
b.创建跟SSD数量一样的root,比如每个节点有2个SSD的情况下,创建2个root。
c.在每个root下创建host结构,跟实际的物理节点保持一致。
d.遍历OSD列表,将OSD添加到它的缓存分区所在SSD对应的root以及host下。
e.在这两个root上各创建一个多副本存储池。
这样划分故障域后各个SSD上的OSD分布在不同的root下,一个节点的一个SSD发生故障虽然依旧会导致缓存分区在该SSD上的所有OSD都故障,但是却不会影响其他root,即只影响本存储池不会影响其他存储池。
2.2纠删码方式创建存储池
2.2.1每个节点只有1个SSD的场景跟1.2的划分方式一样。
2.2.2不需要模拟逻辑节点进行故障域划分的也参照1.2的划分方式。
2.2.3需要进行模拟逻辑节点进行故障域划分的,且每个节点有多个SSD的,划分方式如下:
(1)每个节点有偶数个SSD的,划分方式如下:
a.将各个节点的SSD分成2组,将OSD的缓存分区均匀的划分到这两组SSD上。
b.创建一个新的root(根)。
c.为每一个物理节点创建一个chasis结构(以节点名为hostA为例,创建hostA_cs的chasis结构)。
d.为每一个物理节点创建两个host结构(以节点名为hostA为例,创建hostA_n1和hostA_n2两个逻辑节点)。
e.将步骤a中两组SSD上的OSD分别划分到两个逻辑节点上。
由此创建的纠删码存储池,如果一个SSD发生故障,只会影响到一个逻辑节点的OSD,不会影响其他OSD,这样就提高了容错能力。
从上述实施例可以看出,本发明实施例提供的集群的存储池创建方法,通过为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;在多个根上分别创建存储池并形成作为多副本存储池的故障域的技术方案,能够合理划分集群的故障域,提升集群容错能力。
需要特别指出的是,上述集群的存储池创建方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于集群的存储池创建方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在所述实施例之上。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (12)
1.一种集群的存储池创建方法,其特征在于,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
为每个所述物理节点中的每个对象存储设备均在相对应的所述物理节点中的一个所述缓存设备上创建缓存分区;
基于每个所述物理节点具有的所述缓存设备的数量创建相同数量的根,并在每个所述根下创建与每个所述物理节点相对应的主机;
将集群的每个对象存储设备均添加到所述对象存储设备所对应的所述缓存分区所在的所述缓存设备所对应的所述根和所述主机;
在多个所述根上分别创建存储池并形成作为多副本存储池的故障域。
2.根据权利要求1所述的方法,其特征在于,为每个所述物理节点中的每个对象存储设备均在对应的所述物理节点中的一个所述缓存设备上创建缓存分区包括:在多个所述缓存设备上创建所述缓存分区,使得所述缓存分区在多个所述缓存设备上均匀分布。
3.根据权利要求1所述的方法,其特征在于,还包括在每个物理节点均具有少于一个缓存设备的场景中执行以下步骤:
响应于确定所述物理节点的数量不足多副本存储池的副本数量而反馈失败并停止创建;
响应于确定所述物理节点的数量达到或超过多副本存储池的副本数量,而在指定的所述对象存储设备所在的所述物理节点上分别创建存储池并形成作为多副本存储池的故障域。
4.根据权利要求1-3中任意一项所述的方法,其特征在于,集群为分布式文件系统的存储集群。
5.根据权利要求1-3中任意一项所述的方法,其特征在于,所述缓存设备包括配置为加速缓存日志的日志加速设备;所述缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
6.一种集群的存储池创建方法,其特征在于,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
将每个所述物理节点上的多个所述缓存设备分为两组,并为每个所述物理节点中的每个对象存储设备均在相对应的所述物理节点中的一组所述缓存设备上创建缓存分区;
创建一个根,并在所述根上为每个所述物理节点创建一个底盘,在每个所述底盘上为相对应的所述物理节点创建两个逻辑主机;
将与两组所述缓存设备相对应的两组所述对象存储设备分别划分到与每个所述物理节点相对应的两个所述逻辑主机上;
在所述根上创建存储池作为纠删码存储池的故障域。
7.根据权利要求6所述的方法,其特征在于,将每个所述物理节点上的多个所述缓存设备分为两组包括:将多个所述缓存设备分为数量均匀的两组;
为每个所述物理节点中的每个对象存储设备均在对应的所述物理节点中的一组所述缓存设备上创建缓存分区包括:在多个所述缓存设备上创建所述缓存分区,使得所述缓存分区在两组所述缓存设备之间均匀分布。
8.根据权利要求6所述的方法,其特征在于,还包括在每个物理节点均具有少于一个缓存设备的场景中,响应于确定所述物理节点的数量达到或超过纠删码存储池的期望节点数量的一半并且所述物理节点兼容模拟所述逻辑主机而执行以下步骤:
创建一个根,并在所述根上为每个所述物理节点创建一个底盘,在每个所述底盘上为相对应的所述物理节点创建两个逻辑主机;
将每个所述物理节点上的多个所述对象存储设备平均划分到与每个所述物理节点相对应的两个所述逻辑主机上;
在所述根上创建存储池作为纠删码存储池的故障域。
9.根据权利要求8所述的方法,其特征在于,还包括:响应于确定所述物理节点的数量不足纠删码存储池的期望节点数量的一半、或所述物理节点的数量不足纠删码存储池的期望节点数量并且所述物理节点不兼容模拟所述逻辑主机,而反馈失败并停止创建。
10.根据权利要求9所述的方法,其特征在于,期望节点包括原始数据存储节点和冗余数据存储节点;所述期望节点数量为原始数据存储节点数量和冗余数据存储节点数量之和。
11.根据权利要求6-10中任意一项所述的方法,其特征在于,集群为分布式文件系统的存储集群。
12.根据权利要求6-10中任意一项所述的方法,其特征在于,所述缓存设备包括配置为加速缓存日志的日志加速设备;所述缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110188470.5A CN112905118B (zh) | 2021-02-19 | 2021-02-19 | 一种集群的存储池创建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110188470.5A CN112905118B (zh) | 2021-02-19 | 2021-02-19 | 一种集群的存储池创建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112905118A CN112905118A (zh) | 2021-06-04 |
CN112905118B true CN112905118B (zh) | 2023-01-20 |
Family
ID=76123727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110188470.5A Active CN112905118B (zh) | 2021-02-19 | 2021-02-19 | 一种集群的存储池创建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112905118B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113791730B (zh) * | 2021-08-16 | 2024-02-20 | 济南浪潮数据技术有限公司 | 基于双存储池的放置组调整方法、系统、装置及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095807A (zh) * | 2016-05-31 | 2016-11-09 | 中广天择传媒股份有限公司 | 一种分布式文件系统纠删码缓存装置及其缓存方法 |
CN111240595A (zh) * | 2020-01-10 | 2020-06-05 | 苏州浪潮智能科技有限公司 | 一种存储缓存优化的方法、系统、设备及介质 |
CN111414136A (zh) * | 2020-03-13 | 2020-07-14 | 苏州浪潮智能科技有限公司 | 一种存储池的创建方法、系统、设备以及介质 |
CN111708488A (zh) * | 2020-05-26 | 2020-09-25 | 苏州浪潮智能科技有限公司 | 一种基于分布式内存盘的Ceph性能优化的方法和设备 |
CN112104729A (zh) * | 2020-09-10 | 2020-12-18 | 华云数据控股集团有限公司 | 一种存储系统及其缓存方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200341639A1 (en) * | 2019-04-24 | 2020-10-29 | Netapp, Inc. | Lattice layout of replicated data across different failure domains |
-
2021
- 2021-02-19 CN CN202110188470.5A patent/CN112905118B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095807A (zh) * | 2016-05-31 | 2016-11-09 | 中广天择传媒股份有限公司 | 一种分布式文件系统纠删码缓存装置及其缓存方法 |
CN111240595A (zh) * | 2020-01-10 | 2020-06-05 | 苏州浪潮智能科技有限公司 | 一种存储缓存优化的方法、系统、设备及介质 |
CN111414136A (zh) * | 2020-03-13 | 2020-07-14 | 苏州浪潮智能科技有限公司 | 一种存储池的创建方法、系统、设备以及介质 |
CN111708488A (zh) * | 2020-05-26 | 2020-09-25 | 苏州浪潮智能科技有限公司 | 一种基于分布式内存盘的Ceph性能优化的方法和设备 |
CN112104729A (zh) * | 2020-09-10 | 2020-12-18 | 华云数据控股集团有限公司 | 一种存储系统及其缓存方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112905118A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10691366B2 (en) | Policy-based hierarchical data protection in distributed storage | |
EP3101530B1 (en) | Data distribution method, data storage method, related apparatus, and system | |
US11137940B2 (en) | Storage system and control method thereof | |
CN110750382B (zh) | 用于提高数据修复性能的最小存储再生码编码方法及系统 | |
CN109828868B (zh) | 数据存储方法、装置、管理设备和双活数据存储系统 | |
US20140189128A1 (en) | Cluster system with calculation and storage converged | |
EP3745269B1 (en) | Hierarchical fault tolerance in system storage | |
US9201747B2 (en) | Real time database system | |
US10705737B2 (en) | Storage system and data arrangement method of storage system | |
CN103929454A (zh) | 一种云计算平台中负载均衡存储的方法和系统 | |
CN110096220B (zh) | 一种分布式存储系统、数据处理方法和存储节点 | |
CN105335168A (zh) | 实现操作系统远程配置的系统、方法及装置 | |
EP2808778A1 (en) | Capacity expansion method and device | |
US20200341639A1 (en) | Lattice layout of replicated data across different failure domains | |
CN112905118B (zh) | 一种集群的存储池创建方法 | |
CN105760391B (zh) | 数据动态重分布的方法、数据节点、名字节点及系统 | |
CN107301021B (zh) | 一种利用ssd缓存对lun进行加速的方法和装置 | |
US20130145111A1 (en) | Memory control device, information processing device, and control method for memory control device | |
US11119703B2 (en) | Utilizing a set of virtual storage units distributed across physical storage units | |
CN104052799B (zh) | 一种利用资源环实现高可用存储的方法 | |
CN108733307B (zh) | 存储管理方法、设备以及计算机可读介质 | |
CN111045853A (zh) | 一种提高纠删码恢复速度的方法、装置及后台服务器 | |
WO2018235132A1 (en) | DISTRIBUTED STORAGE SYSTEM | |
CN112667577A (zh) | 一种元数据管理方法、元数据管理系统及存储介质 | |
CN115878047B (zh) | 一种数据一致性校验方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |