CN112905118B - 一种集群的存储池创建方法 - Google Patents

一种集群的存储池创建方法 Download PDF

Info

Publication number
CN112905118B
CN112905118B CN202110188470.5A CN202110188470A CN112905118B CN 112905118 B CN112905118 B CN 112905118B CN 202110188470 A CN202110188470 A CN 202110188470A CN 112905118 B CN112905118 B CN 112905118B
Authority
CN
China
Prior art keywords
cache
nodes
physical
creating
physical node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110188470.5A
Other languages
English (en)
Other versions
CN112905118A (zh
Inventor
王庆海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Yingxin Computer Technology Co Ltd
Original Assignee
Shandong Yingxin Computer Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Yingxin Computer Technology Co Ltd filed Critical Shandong Yingxin Computer Technology Co Ltd
Priority to CN202110188470.5A priority Critical patent/CN112905118B/zh
Publication of CN112905118A publication Critical patent/CN112905118A/zh
Application granted granted Critical
Publication of CN112905118B publication Critical patent/CN112905118B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明公开了一种集群的存储池创建方法包括:为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;在多个根上分别创建存储池并形成作为多副本存储池的故障域。本发明能够合理划分集群的故障域,提升集群容错能力。

Description

一种集群的存储池创建方法
技术领域
本发明涉及集群领域,更具体地,特别是指一种集群的存储池创建方法。
背景技术
集群监控模块是分布式文件系统的核心模块,其主要功能是管理集群和监控集群的各种状态,并负责响应各种命令。管理软件不是构成分布式文件系统的基本模块,而是一个独立于集群的外部模块。管理软件通过与集群监控交互来实现对集群的管理和监控。管理软件是个图形化的web应用软件,管理软件可以方便用户进行集群部署、扩容、缩容以及集群资源划分等。
故障域是进行故障隔离的一个概念,也是PG(放置组)分布的一个概念,即PG分布是以故障域为单位进行隔离的。比如三副本的多副本存储池,以节点为单位划分故障域时,则PG的三个副本将分别分布在三个不同节点的3个不同的OSD(对象存储设备)上,一个节点断电则存储池的PG至多只会故障一个副本,还有两个副本可以正常工作,这也要求至少需要3个节点才能划分三副本节点级故障域的存储池。同理,基于纠删码的存储池如果是以节点作为故障域,则至少需要K+M个节点。三副本对容量的利用率理论上是三分之一,即33.33%,纠删码对容量的利用率取决于K和M的值,以纠删8+2为例,理论上上的利用率为80%。按照节点级故障域的概念,8+2纠删码存储池需要10个节点才行。现有技术通过划分逻辑节点来达到满足故障域的要求。比如5个物理节点,可以通过将每个物理节点上的OSD一比一划分到两个逻辑节点下,这样就在5个物理节点上模拟出10个逻辑节点,这样就可以在10个逻辑节点上创建8+2的纠删码存储池,按照故障域的概念,这种模拟出的逻辑节点中如果有一个发生OSD故障不会影响其他逻辑节点,按照故障域的概念,这种模拟出的8+2纠删存储池最多允许同时故障两个逻辑节点的OSD。
在集群的实际应用场景中,为了提高集群的性能,会使用SSD(固态硬盘)作为缓存或者日志加速等,这样就增加了OSD与SSD之间的耦合度,让集群变得复杂。为了达到经济性和高性能的折中,一块SSD会被多个OSD共享。这就造成了OSD和SSD的高耦合,当一个SSD发生故障时,共享该SSD的OSD都会发生异常,造成这些OSD故障无法使用。于此同时,由于故障域划分时并未考虑到OSD共享SSD的情况以及模拟逻辑节点的情况,这会造成共享同一个SSD的OSD被划分到两个不同的逻辑节点上,当该SSD故障时,就会造成两个不同的逻辑节点的OSD发生故障;当两个物理节点上各有一块SSD发生故障时就会造成4个逻辑节点的OSD发生故障,这样就超出了故障域,造成存储池无法使用。
针对现有技术集群存储池的故障干扰性强、容错能力低下的问题,目前尚无有效的解决方案。
发明内容
有鉴于此,本发明实施例的目的在于提出一种集群的存储池创建方法,能够合理划分集群的故障域,提升集群容错能力。
基于上述目的,本发明实施例的第一方面提供了一种集群的存储池创建方法,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;
基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;
将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;
在多个根上分别创建存储池并形成作为多副本存储池的故障域。
在一些实施方式中,为每个物理节点中的每个对象存储设备均在对应的物理节点中的一个缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在多个缓存设备上均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中执行以下步骤:
响应于确定物理节点的数量不足多副本存储池的副本数量而反馈失败并停止创建;
响应于确定物理节点的数量达到或超过多副本存储池的副本数量,而在指定的对象存储设备所在的物理节点上分别创建存储池并形成作为多副本存储池的故障域。
在一些实施方式中,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
将每个物理节点上的多个缓存设备分为两组,并为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一组缓存设备上创建缓存分区;
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将与两组缓存设备相对应的两组对象存储设备分别划分到与每个物理节点相对应的两个逻辑主机上;
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,将每个物理节点上的多个缓存设备分为两组包括:将多个缓存设备分为数量均匀的两组;为每个物理节点中的每个对象存储设备均在对应的物理节点中的一组缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在两组缓存设备之间均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中,响应于确定物理节点的数量达到或超过纠删码存储池的期望节点数量的一半并且物理节点兼容模拟逻辑主机而执行以下步骤:
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将每个物理节点上的多个对象存储设备平均划分到与每个物理节点相对应的两个逻辑主机上。
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,方法还包括:响应于确定物理节点的数量不足纠删码存储池的期望节点数量的一半、或物理节点的数量不足纠删码存储池的期望节点数量并且物理节点不兼容模拟逻辑主机,而反馈失败并停止创建。
在一些实施方式中,期望节点包括原始数据存储节点和冗余数据存储节点;期望节点数量为原始数据存储节点数量和冗余数据存储节点数量之和。
在一些实施方式中,集群为分布式文件系统的存储集群。
在一些实施方式中,缓存设备包括配置为加速缓存日志的日志加速设备;缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
本发明具有以下有益技术效果:本发明实施例提供的集群的存储池创建方法,通过为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;在多个根上分别创建存储池并形成作为多副本存储池的故障域的技术方案,能够合理划分集群的故障域,提升集群容错能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的集群的存储池创建方法的流程示意图;
图2为本发明提供的集群的存储池创建方法的多副本存储池的期望结构示意图;
图3为本发明提供的集群的存储池创建方法的纠删码存储池的期望结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种合理划分集群的故障域,提升集群容错能力的集群的存储池创建方法的一个实施例。图1示出的是本发明提供的集群的存储池创建方法的流程示意图。
所述的集群的存储池创建方法,如图1所示,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
步骤S101,为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;
步骤S103,基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;
步骤S105,将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;
步骤S107,在多个根上分别创建存储池并形成作为多副本存储池的故障域。
本发明优化了故障域划分的流程,识别出OSD的耦合场景,在故障域划分时将OSD从物理上分离开,让故障域更加匹配集群的硬件环境和应用场景,故障域的划分更加合理、科学。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。所述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
在一些实施方式中,为每个物理节点中的每个对象存储设备均在对应的物理节点中的一个缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在多个缓存设备上均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中执行以下步骤:
响应于确定物理节点的数量不足多副本存储池的副本数量而反馈失败并停止创建;
响应于确定物理节点的数量达到或超过多副本存储池的副本数量,而在指定的对象存储设备所在的物理节点上分别创建存储池并形成作为多副本存储池的故障域。
在一些实施方式中,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
将每个物理节点上的多个缓存设备分为两组,并为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一组缓存设备上创建缓存分区;
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将与两组缓存设备相对应的两组对象存储设备分别划分到与每个物理节点相对应的两个逻辑主机上;
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,将每个物理节点上的多个缓存设备分为两组包括:将多个缓存设备分为数量均匀的两组;为每个物理节点中的每个对象存储设备均在对应的物理节点中的一组缓存设备上创建缓存分区包括:在多个缓存设备上创建缓存分区,使得缓存分区在两组缓存设备之间均匀分布。
在一些实施方式中,还包括在每个物理节点均具有少于一个缓存设备的场景中,响应于确定物理节点的数量达到或超过纠删码存储池的期望节点数量的一半并且物理节点兼容模拟逻辑主机而执行以下步骤:
创建一个根,并在根上为每个物理节点创建一个底盘,在每个底盘上为相对应的物理节点创建两个逻辑主机;
将每个物理节点上的多个对象存储设备平均划分到与每个物理节点相对应的两个逻辑主机上。
在根上创建存储池作为纠删码存储池的故障域。
在一些实施方式中,方法还包括:响应于确定物理节点的数量不足纠删码存储池的期望节点数量的一半、或物理节点的数量不足纠删码存储池的期望节点数量并且物理节点不兼容模拟逻辑主机,而反馈失败并停止创建。
在一些实施方式中,期望节点包括原始数据存储节点和冗余数据存储节点;期望节点数量为原始数据存储节点数量和冗余数据存储节点数量之和。
在一些实施方式中,集群为分布式文件系统的存储集群。
在一些实施方式中,缓存设备包括配置为加速缓存日志的日志加速设备;缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
下面具体实施例进一步阐述本发明的具体实施方式:
1.无SSD场景
1.1多副本方式创建存储池
(1)物理节点少于副本个数的给客户返回失败提示。
(2)物理节点大于等于副本个数时,基于图2所示的结构按照实际选择的硬盘(此处指OSD)进行故障域划分。
1.2纠删码方式创建存储池
(1)物理节点少于K+M之和且未选择已模拟逻辑节点进行存储池划分则直接返回失败提示。
(2)物理节点少于K+M之和且选择了模拟逻辑节点进行存储池划分的,若物理节点少于(K+M)/2的则直接返回失败提示。
(3)物理节点少于K+M之和且选择了模拟逻辑节点进行存储池划分的,若物理节点大于等于(K+M)/2的则基于图3所示的结构按照如下步骤进行故障域划分:
a.创建一个新的root(根)。
b.为每一个物理节点创建一个chasis(底盘)结构(在图3中,以节点名为hostA为例,创建hostA_cs的chasis结构)。
c.为每一个物理节点创建两个host结构(以节点名为hostA为例,创建hostA_n1和hostA_n2两个逻辑节点)。
d.遍历物理节点下的OSD列表,将索引值为奇数的OSD添加到后缀为n1的逻辑节点上,将索引值为偶数的OSD添加到后缀为n2的逻辑节点上。
例如,图3示出了三个物理节点hostA、hostB、hostC如何创建4+2存储池为例,每个物理节点模拟出两个逻辑host,这样就有了6个逻辑host,从而支持4+2纠删码存储池,创建的存储池的PG的4个数据成员和2个校验成员分别分布在这6个逻辑host的OSD上。
2.有SSD场景
2.1多副本方式创建存储池
2.1.1每个节点只有1个SSD的场景跟1.1的划分方式一样。
2.1.2每个节点有多个SSD的场景(各个节点的配置一样,每个节点的SSD一样多)划分故障域的方式如下(以每个节点有2个SSD为例):
a.为每个OSD在SSD上创建一个缓存分区(或日志加速分区),将缓存分区(或日志加速分区)均匀的分布在各个SSD上。
b.创建跟SSD数量一样的root,比如每个节点有2个SSD的情况下,创建2个root。
c.在每个root下创建host结构,跟实际的物理节点保持一致。
d.遍历OSD列表,将OSD添加到它的缓存分区所在SSD对应的root以及host下。
e.在这两个root上各创建一个多副本存储池。
这样划分故障域后各个SSD上的OSD分布在不同的root下,一个节点的一个SSD发生故障虽然依旧会导致缓存分区在该SSD上的所有OSD都故障,但是却不会影响其他root,即只影响本存储池不会影响其他存储池。
2.2纠删码方式创建存储池
2.2.1每个节点只有1个SSD的场景跟1.2的划分方式一样。
2.2.2不需要模拟逻辑节点进行故障域划分的也参照1.2的划分方式。
2.2.3需要进行模拟逻辑节点进行故障域划分的,且每个节点有多个SSD的,划分方式如下:
(1)每个节点有偶数个SSD的,划分方式如下:
a.将各个节点的SSD分成2组,将OSD的缓存分区均匀的划分到这两组SSD上。
b.创建一个新的root(根)。
c.为每一个物理节点创建一个chasis结构(以节点名为hostA为例,创建hostA_cs的chasis结构)。
d.为每一个物理节点创建两个host结构(以节点名为hostA为例,创建hostA_n1和hostA_n2两个逻辑节点)。
e.将步骤a中两组SSD上的OSD分别划分到两个逻辑节点上。
由此创建的纠删码存储池,如果一个SSD发生故障,只会影响到一个逻辑节点的OSD,不会影响其他OSD,这样就提高了容错能力。
从上述实施例可以看出,本发明实施例提供的集群的存储池创建方法,通过为每个物理节点中的每个对象存储设备均在相对应的物理节点中的一个缓存设备上创建缓存分区;基于每个物理节点具有的缓存设备的数量创建相同数量的根,并在每个根下创建与每个物理节点相对应的主机;将集群的每个对象存储设备均添加到对象存储设备所对应的缓存分区所在的缓存设备所对应的根和主机;在多个根上分别创建存储池并形成作为多副本存储池的故障域的技术方案,能够合理划分集群的故障域,提升集群容错能力。
需要特别指出的是,上述集群的存储池创建方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于集群的存储池创建方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在所述实施例之上。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (12)

1.一种集群的存储池创建方法,其特征在于,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
为每个所述物理节点中的每个对象存储设备均在相对应的所述物理节点中的一个所述缓存设备上创建缓存分区;
基于每个所述物理节点具有的所述缓存设备的数量创建相同数量的根,并在每个所述根下创建与每个所述物理节点相对应的主机;
将集群的每个对象存储设备均添加到所述对象存储设备所对应的所述缓存分区所在的所述缓存设备所对应的所述根和所述主机;
在多个所述根上分别创建存储池并形成作为多副本存储池的故障域。
2.根据权利要求1所述的方法,其特征在于,为每个所述物理节点中的每个对象存储设备均在对应的所述物理节点中的一个所述缓存设备上创建缓存分区包括:在多个所述缓存设备上创建所述缓存分区,使得所述缓存分区在多个所述缓存设备上均匀分布。
3.根据权利要求1所述的方法,其特征在于,还包括在每个物理节点均具有少于一个缓存设备的场景中执行以下步骤:
响应于确定所述物理节点的数量不足多副本存储池的副本数量而反馈失败并停止创建;
响应于确定所述物理节点的数量达到或超过多副本存储池的副本数量,而在指定的所述对象存储设备所在的所述物理节点上分别创建存储池并形成作为多副本存储池的故障域。
4.根据权利要求1-3中任意一项所述的方法,其特征在于,集群为分布式文件系统的存储集群。
5.根据权利要求1-3中任意一项所述的方法,其特征在于,所述缓存设备包括配置为加速缓存日志的日志加速设备;所述缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
6.一种集群的存储池创建方法,其特征在于,包括在每个物理节点均具有多个缓存设备的场景中执行以下步骤:
将每个所述物理节点上的多个所述缓存设备分为两组,并为每个所述物理节点中的每个对象存储设备均在相对应的所述物理节点中的一组所述缓存设备上创建缓存分区;
创建一个根,并在所述根上为每个所述物理节点创建一个底盘,在每个所述底盘上为相对应的所述物理节点创建两个逻辑主机;
将与两组所述缓存设备相对应的两组所述对象存储设备分别划分到与每个所述物理节点相对应的两个所述逻辑主机上;
在所述根上创建存储池作为纠删码存储池的故障域。
7.根据权利要求6所述的方法,其特征在于,将每个所述物理节点上的多个所述缓存设备分为两组包括:将多个所述缓存设备分为数量均匀的两组;
为每个所述物理节点中的每个对象存储设备均在对应的所述物理节点中的一组所述缓存设备上创建缓存分区包括:在多个所述缓存设备上创建所述缓存分区,使得所述缓存分区在两组所述缓存设备之间均匀分布。
8.根据权利要求6所述的方法,其特征在于,还包括在每个物理节点均具有少于一个缓存设备的场景中,响应于确定所述物理节点的数量达到或超过纠删码存储池的期望节点数量的一半并且所述物理节点兼容模拟所述逻辑主机而执行以下步骤:
创建一个根,并在所述根上为每个所述物理节点创建一个底盘,在每个所述底盘上为相对应的所述物理节点创建两个逻辑主机;
将每个所述物理节点上的多个所述对象存储设备平均划分到与每个所述物理节点相对应的两个所述逻辑主机上;
在所述根上创建存储池作为纠删码存储池的故障域。
9.根据权利要求8所述的方法,其特征在于,还包括:响应于确定所述物理节点的数量不足纠删码存储池的期望节点数量的一半、或所述物理节点的数量不足纠删码存储池的期望节点数量并且所述物理节点不兼容模拟所述逻辑主机,而反馈失败并停止创建。
10.根据权利要求9所述的方法,其特征在于,期望节点包括原始数据存储节点和冗余数据存储节点;所述期望节点数量为原始数据存储节点数量和冗余数据存储节点数量之和。
11.根据权利要求6-10中任意一项所述的方法,其特征在于,集群为分布式文件系统的存储集群。
12.根据权利要求6-10中任意一项所述的方法,其特征在于,所述缓存设备包括配置为加速缓存日志的日志加速设备;所述缓存分区相对应地包括配置为加速缓存日志的日志加速分区。
CN202110188470.5A 2021-02-19 2021-02-19 一种集群的存储池创建方法 Active CN112905118B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110188470.5A CN112905118B (zh) 2021-02-19 2021-02-19 一种集群的存储池创建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110188470.5A CN112905118B (zh) 2021-02-19 2021-02-19 一种集群的存储池创建方法

Publications (2)

Publication Number Publication Date
CN112905118A CN112905118A (zh) 2021-06-04
CN112905118B true CN112905118B (zh) 2023-01-20

Family

ID=76123727

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110188470.5A Active CN112905118B (zh) 2021-02-19 2021-02-19 一种集群的存储池创建方法

Country Status (1)

Country Link
CN (1) CN112905118B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113791730B (zh) * 2021-08-16 2024-02-20 济南浪潮数据技术有限公司 基于双存储池的放置组调整方法、系统、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095807A (zh) * 2016-05-31 2016-11-09 中广天择传媒股份有限公司 一种分布式文件系统纠删码缓存装置及其缓存方法
CN111240595A (zh) * 2020-01-10 2020-06-05 苏州浪潮智能科技有限公司 一种存储缓存优化的方法、系统、设备及介质
CN111414136A (zh) * 2020-03-13 2020-07-14 苏州浪潮智能科技有限公司 一种存储池的创建方法、系统、设备以及介质
CN111708488A (zh) * 2020-05-26 2020-09-25 苏州浪潮智能科技有限公司 一种基于分布式内存盘的Ceph性能优化的方法和设备
CN112104729A (zh) * 2020-09-10 2020-12-18 华云数据控股集团有限公司 一种存储系统及其缓存方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200341639A1 (en) * 2019-04-24 2020-10-29 Netapp, Inc. Lattice layout of replicated data across different failure domains

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095807A (zh) * 2016-05-31 2016-11-09 中广天择传媒股份有限公司 一种分布式文件系统纠删码缓存装置及其缓存方法
CN111240595A (zh) * 2020-01-10 2020-06-05 苏州浪潮智能科技有限公司 一种存储缓存优化的方法、系统、设备及介质
CN111414136A (zh) * 2020-03-13 2020-07-14 苏州浪潮智能科技有限公司 一种存储池的创建方法、系统、设备以及介质
CN111708488A (zh) * 2020-05-26 2020-09-25 苏州浪潮智能科技有限公司 一种基于分布式内存盘的Ceph性能优化的方法和设备
CN112104729A (zh) * 2020-09-10 2020-12-18 华云数据控股集团有限公司 一种存储系统及其缓存方法

Also Published As

Publication number Publication date
CN112905118A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
US10691366B2 (en) Policy-based hierarchical data protection in distributed storage
EP3101530B1 (en) Data distribution method, data storage method, related apparatus, and system
US11137940B2 (en) Storage system and control method thereof
CN110750382B (zh) 用于提高数据修复性能的最小存储再生码编码方法及系统
CN109828868B (zh) 数据存储方法、装置、管理设备和双活数据存储系统
US20140189128A1 (en) Cluster system with calculation and storage converged
EP3745269B1 (en) Hierarchical fault tolerance in system storage
US9201747B2 (en) Real time database system
US10705737B2 (en) Storage system and data arrangement method of storage system
CN103929454A (zh) 一种云计算平台中负载均衡存储的方法和系统
CN110096220B (zh) 一种分布式存储系统、数据处理方法和存储节点
CN105335168A (zh) 实现操作系统远程配置的系统、方法及装置
EP2808778A1 (en) Capacity expansion method and device
US20200341639A1 (en) Lattice layout of replicated data across different failure domains
CN112905118B (zh) 一种集群的存储池创建方法
CN105760391B (zh) 数据动态重分布的方法、数据节点、名字节点及系统
CN107301021B (zh) 一种利用ssd缓存对lun进行加速的方法和装置
US20130145111A1 (en) Memory control device, information processing device, and control method for memory control device
US11119703B2 (en) Utilizing a set of virtual storage units distributed across physical storage units
CN104052799B (zh) 一种利用资源环实现高可用存储的方法
CN108733307B (zh) 存储管理方法、设备以及计算机可读介质
CN111045853A (zh) 一种提高纠删码恢复速度的方法、装置及后台服务器
WO2018235132A1 (en) DISTRIBUTED STORAGE SYSTEM
CN112667577A (zh) 一种元数据管理方法、元数据管理系统及存储介质
CN115878047B (zh) 一种数据一致性校验方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant