CN113961408A - 一种优化Ceph存储性能的测试方法、设备及介质 - Google Patents
一种优化Ceph存储性能的测试方法、设备及介质 Download PDFInfo
- Publication number
- CN113961408A CN113961408A CN202111240853.9A CN202111240853A CN113961408A CN 113961408 A CN113961408 A CN 113961408A CN 202111240853 A CN202111240853 A CN 202111240853A CN 113961408 A CN113961408 A CN 113961408A
- Authority
- CN
- China
- Prior art keywords
- ceph
- creating
- osd
- solid state
- storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/2205—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/2273—Test methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/26—Functional testing
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明公开了一种优化Ceph存储性能的测试方法、设备和介质,该方法包括:选取一块系统盘,至少一块固态硬盘作为OSD,至少两个千兆网卡作为Ceph网络;在系统盘上安装系统,选取至少三个存储节点monitor创建Ceph集群;为Ceph集群中至少三个存储节点创建Ceph监视器;为每个存储节点创建至少一个OSD;创建Ceph资源池,Ceph性能的测试采用Rados性能测试,其中,Rados性能测试工具是使用Ceph自带的radosbench工具和rados losd‑gen工具。通过本发明的方案,实现为Ceph集群提供最佳的存储性能的目的。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种优化Ceph存储性能的测试方法、设备及介质。
背景技术
虚拟化及云计算技术大规模应用于企业数据中心中,存储性能无疑是企业核心应用是否虚拟化、云化的关键指标之一。传统的存储性能优化方法是升级存储设备,但是存在性能和容量不能兼顾的问题。因此,企业迫切需要一种大规模分布式存储管理软件,能充分利用已有硬件资源,在可控成本范围内提供最佳的存储性能,并能根据业务需求变化,从容量和性能两方面同时快速扩展。因此,存储资源池Server SAN应运而生。
Ceph作为Server SAN的最典型代表,其是可对外提供块、对象、文件服务的分布式统一存储系统。目前,越来越多的企业在生产环境部署和使用Ceph集群。但是Ceph集群存在性能数据不稳定的现象。因此,如何优化Ceph存储性能是本发明有待解决的技术问题。
发明内容
本发明提出了一种优化Ceph存储性能的测试方法、设备及计算机可读存储介质,实现为Ceph集群提供最佳的存储性能的目的。
基于上述目的,本发明实施例的一方面提供了一种优化Ceph存储性能的测试方法,具体包括如下步骤:
选取一块系统盘,至少一块固态硬盘作为OSD(Object Storage Device),至少两个千兆网卡作为Ceph网络;
在系统盘上安装系统,选取至少三个存储节点monitor创建Ceph集群;
为Ceph集群中至少三个存储节点创建Ceph监视器;
为每个存储节点创建至少一个OSD;
创建Ceph资源池,Ceph性能的测试采用Rados性能测试,
其中,Rados性能测试工具是使用Ceph自带的rados bench工具和rados losd-gen工具。
在一些实施方式中,固态硬盘的数量为一个,固态硬盘为Intel DC S3520的1.2T固态硬盘。
在一些实施方式中,固态硬盘的数量为两个,固态硬盘为Intel DC P3600的1.6T固态硬盘或航天中云的3.84T固态硬盘。
在一些实施方式中,为每个存储节点创建至少一个OSD,包括:
为每个存储节点创建两个OSD。
在一些实施方式中,创建Ceph资源池,包括:
创建归置组PG,其中,PG的数量是根据OSD的数量确定的。
在一些实施方式中,PG数量根据OSD的数量确定的,表达式为:
集群PGs总数=(OSD总数*100)/最大副本数。
在一些实施方式中,创建Ceph资源池,包括:
创建64个归置组PG,并使用3副本模式。
在一些实施方式中,至少三个存储节点的数量为3或5。
本发明实施例的又一方面,还提供了一种计算机设备,其包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行时实现如上方法的步骤。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
本发明实施例中,选取一块系统盘,至少一块固态硬盘作为OSD,至少两个千兆网卡作为Ceph网络;在系统盘上安装系统,选取至少三个存储节点monitor创建Ceph集群;为Ceph集群中至少三个存储节点创建Ceph 监视器;为每个存储节点创建至少一个OSD;创建Ceph资源池,Ceph性能的测试采用Rados性能测试,其中,Rados性能测试工具是使用Ceph自带的rados bench工具和rados losd-gen工具。通过本发明的方案,实现为 Ceph集群提供最佳的存储性能的目的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的一种优化Ceph存储性能的测试方法的流程示意图;
图2为本发明的实施例提供的Ceph集群结构示意图;
图3为本发明提供的优化Ceph存储性能的计算机设备的实施例的硬件结构示意图;
图4为本发明的实施例提供的计算机可读存储介质的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种优化Ceph存储性能的测试方法的实施例。如图1所示,该方法包括:
S101、选取一块系统盘,至少一块固态硬盘作为OSD,至少两个千兆网卡作为Ceph网络。
在一种具体可实现方式中,固态硬盘的数量为一个,固态硬盘为Intel DC S3520的1.2T固态硬盘。
在一种具体可实现方式中,固态硬盘的数量为两个,固态硬盘为Intel DC P3600的1.6T固态硬盘或航天中云的3.84T固态硬盘。
在一种具体可实现方式中,部署万兆网卡作为Ceph网络。
在实际应用中,示例性的,可以采用以下测试环境:
测试环境1:一块系统盘,两块Intel DC P3600的1.6T固态硬盘做OSD,万兆网络做Ceph网络。
测试环境2:一块系统盘,一块Intel DC S3520的1.2T固态硬盘做OSD,万兆网络做Ceph网络。
测试环境3:一块系统盘,两块航天中云的3.84T固态硬盘做OSD,万兆网络做Ceph网络。
S102、在系统盘上安装系统,选取至少三个存储节点monitor创建Ceph 集群。
其中,在系统盘上安装系统,选取三个存储节点monitor创建集群。首先初始化Ceph配置,IP网段设置为万兆网段,完成Ceph初始化的创建,在Ceph配置页面上CephConfig和Ceph Map会出现相应配置信息。
其中,Ceph集群的核心组件是OSD和monitor(简称MON),其中 OSD用于数据的具体存储操作,MON用于一些“映射图”,通过该“映射图”客户端可以计算出数据的存放位置,并将数据直接发送给相应的OSD 处理。由于OSD和MON之间存在监控关系,并且通过相应的策略进行相关调度,保证自动故障处理和负载均衡等,因此将OSD、MON以及这些策略统称为RADOS。
为了便于对RADOS的管理和使用,在RADOS之上实现了一套动态库 (librados),动态库通常位于客户端,通过网络与RADOS交互命令和数据。Ceph是对象存储,rados本身提供了一套以对象方式存储和访问Ceph 集群数据的接口。而Ceph又同时提供了块存储和文件系统存储的功能,该功能基于Ceph的对象存储实现。
其中,OSD的全称是Object Storage Device,OSD通常是一个物理的存储设备(例如磁盘),也可以是逻辑的存储设备(例如磁盘上的某个文件夹)。当然,这里的存储设备不限于服务器上的本地硬盘,也可以是通过 iSCSI协议或者FC协议映射的LUN。有时候提及的OSD实际上是OSD守护进程,视语境而定。
其中,OSD守护进程是OSD的软件实现,OSD守护进程用来对OSD 进行管理(数据读写等),客户端数据交互的对象是OSD守护进程。
其中,MON是Ceph集群的监控软件,一个守护进程,其中包含若干“映射图”信息。客户端向Ceph集群写数据前通常要向MON请求,获取最新的“映射图”,并通过其计算出数据的存放位置。
具体工作过程为:Ceph存储集群至少需要一个Ceph Monitor和两个 OSD守护进程。Ceph把客户端数据保存为存储池内的对象。通过使用 CRUSH算法,Ceph可以计算出哪个归置组(PG)应该持有指定的对象 (Object),然后进一步计算出哪个OSD守护进程持有该归置组。CRUSH算法使得Ceph存储集群能够动态地伸缩、再均衡和修复。
S103、为Ceph集群中至少三个存储节点创建Ceph监视器。
其中,创建后的监视器可以在主界面显示。
其中,至少三个存储节点的数量为3或5。
S104、为每个存储节点创建至少一个OSD。
示例性的,如图2所示,以每个节点创建2个OSD为例,选择相应的磁盘作为OSD,完成OSD的创建,创建成功后,在OSD主界面可以看见节点1的OSD信息。
S105、创建Ceph资源池,Ceph性能的测试采用Rados性能测试。
具体可以为,进入“创建Ceph资源池界面”,填写完相应的信息,点击“创建”按钮,完成Ceph资源池的创建。默认创建64个PG,并使用3副本模式,降级模式最低使用2副本模式,建议用户根据具体配置计算确定PG数量。此时勾选上“添加存储”选项,创建Ceph Pools成功后,在数据中心的“存储”可以查看。
其中,创建Ceph资源池,具体可以为:创建归置组PG,其中,PG 的数量是根据OSD的数量确定的,表达式为:
集群PGs总数=(OSD总数*100)/最大副本数。
示例性的,创建Ceph资源池,具体可以为:创建64个归置组PG,并使用3副本模式。
此时创建了Ceph存储,Ceph性能的测试采用RADOS性能测试,其中 Rados性能测试工具是使用Ceph自带的rados bench工具和rados losd-gen 工具。
本发明实施例中,选取一块系统盘,至少一块固态硬盘作为OSD,至少两个千兆网卡作为Ceph网络;在系统盘上安装系统,选取至少三个存储节点monitor创建Ceph集群;为Ceph集群中至少三个存储节点创建Ceph 监视器;为每个存储节点创建至少一个OSD;创建Ceph资源池,Ceph性能的测试采用Rados性能测试,其中,Rados性能测试工具是使用Ceph自带的rados bench工具和rados losd-gen工具。通过本发明的方案,实现为 Ceph集群提供最佳的存储性能的目的。
如图3所示,为本发明提供的上述优化Ceph存储性能的计算机设备的一个实施例的硬件结构示意图。
以如图3所示的装置为例,在该装置中包括一个处理器301以及一个存储器302。处理器301和存储器302可以通过总线或者其他方式连接,图 3中以通过总线连接为例。优化Ceph存储性能的测试方法对应的计算机指令303存储在存储器302中,当被处理器301执行时,执行优化Ceph存储性能的测试方法。
基于同一发明构思,根据本发明的另一个方面,如图4所示,本发明的实施例还提供了一种计算机可读存储介质40,计算机可读存储介质40 存储有被处理器执行时执行如上方法的计算机程序410。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种优化Ceph存储性能的测试方法,其特征在于,包括:
选取一块系统盘,至少一块固态硬盘作为OSD,至少两个千兆网卡作为Ceph网络;
在所述系统盘上安装系统,选取至少三个存储节点monitor创建Ceph集群;
为所述Ceph集群中所述至少三个存储节点创建Ceph监视器;
为每个存储节点创建至少一个OSD;
创建Ceph资源池,所述Ceph性能的测试采用Rados性能测试,
其中,Rados性能测试工具是使用Ceph自带的rados bench工具和rados losd-gen工具。
2.根据权利要求1所述的方法,其特征在于,所述固态硬盘的数量为一个,所述固态硬盘为Intel DC S3520的1.2T固态硬盘。
3.根据权利要求1所述的方法,其特征在于,所述固态硬盘的数量为两个,所述固态硬盘为Intel DC P3600的1.6T固态硬盘或航天中云的3.84T固态硬盘。
4.根据权利要求1-3中任一项所述的方法,其特征在于,为每个存储节点创建至少一个OSD,包括:
为每个存储节点创建两个OSD。
5.根据权利要求1所述的方法,其特征在于,创建Ceph资源池,包括:
创建归置组PG,其中,所述PG的数量是根据所述OSD的数量确定的。
6.根据权利要求5所述的方法,其特征在于,所述PG数量根据OSD的数量确定的,表达式为:
集群PGs总数=(OSD总数*100)/最大副本数。
7.根据权利要求1所述的方法,其特征在于,创建Ceph资源池,包括:
创建64个归置组PG,并使用3副本模式。
8.根据权利要求1所述的方法,其特征在于,至少三个存储节点的数量为3或5。
9.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现权利要求1-8任意一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-8中任一项所述的方法所包含的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111240853.9A CN113961408A (zh) | 2021-10-25 | 2021-10-25 | 一种优化Ceph存储性能的测试方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111240853.9A CN113961408A (zh) | 2021-10-25 | 2021-10-25 | 一种优化Ceph存储性能的测试方法、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113961408A true CN113961408A (zh) | 2022-01-21 |
Family
ID=79466678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111240853.9A Pending CN113961408A (zh) | 2021-10-25 | 2021-10-25 | 一种优化Ceph存储性能的测试方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113961408A (zh) |
-
2021
- 2021-10-25 CN CN202111240853.9A patent/CN113961408A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10691568B2 (en) | Container replication and failover orchestration in distributed computing environments | |
US11573831B2 (en) | Optimizing resource usage in distributed computing environments by dynamically adjusting resource unit size | |
US9582221B2 (en) | Virtualization-aware data locality in distributed data processing | |
US8954545B2 (en) | Fast determination of compatibility of virtual machines and hosts | |
US20200026425A1 (en) | Efficient scaling of distributed storage systems | |
US9703647B2 (en) | Automated policy management in a virtual machine environment | |
US10356150B1 (en) | Automated repartitioning of streaming data | |
US10558535B2 (en) | Cluster file system support for extended network service addresses | |
US11573736B2 (en) | Managing host connectivity to a data storage system | |
US10289441B1 (en) | Intelligent scale-out federated restore | |
US10331470B2 (en) | Virtual machine creation according to a redundancy policy | |
US20150199147A1 (en) | Storage thin provisioning and space reclamation | |
US9525729B2 (en) | Remote monitoring pool management | |
CN107818104B (zh) | 一种数据库部署方法、数据库部署装置、控制设备及系统 | |
US11416396B2 (en) | Volume tiering in storage systems | |
US10862887B2 (en) | Multiple domain authentication using data management and storage node | |
CN115061634A (zh) | 一种系统业务负载分配方法、装置、介质 | |
US10326826B1 (en) | Migrating an on premises workload to a web services platform | |
US8621260B1 (en) | Site-level sub-cluster dependencies | |
CN111767169A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
US11354204B2 (en) | Host multipath layer notification and path switchover following node failure | |
US10365950B2 (en) | Resource throttling and automated policy management in a virtual machine environment | |
CN113961408A (zh) | 一种优化Ceph存储性能的测试方法、设备及介质 | |
US10540245B2 (en) | One-step disaster recovery configuration on software-defined storage systems | |
CN114879907A (zh) | 一种数据分布确定方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |