CN111400117B - 一种自动化测试Ceph集群的方法 - Google Patents

一种自动化测试Ceph集群的方法 Download PDF

Info

Publication number
CN111400117B
CN111400117B CN202010170059.0A CN202010170059A CN111400117B CN 111400117 B CN111400117 B CN 111400117B CN 202010170059 A CN202010170059 A CN 202010170059A CN 111400117 B CN111400117 B CN 111400117B
Authority
CN
China
Prior art keywords
test
cluster
ceph
performance
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010170059.0A
Other languages
English (en)
Other versions
CN111400117A (zh
Inventor
韩春蕾
蔡卫卫
谢涛涛
宋伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Huimao Electronic Port Co Ltd
Original Assignee
Shandong Huimao Electronic Port Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Huimao Electronic Port Co Ltd filed Critical Shandong Huimao Electronic Port Co Ltd
Priority to CN202010170059.0A priority Critical patent/CN111400117B/zh
Publication of CN111400117A publication Critical patent/CN111400117A/zh
Application granted granted Critical
Publication of CN111400117B publication Critical patent/CN111400117B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2205Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested
    • G06F11/221Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested to test buses, lines or interfaces, e.g. stuck-at or open line faults
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/2205Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested
    • G06F11/2236Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested to test CPU or processors
    • G06F11/2242Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested to test CPU or processors in multi-processor systems, e.g. one processor becoming the test master
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3006Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is distributed, e.g. networked systems, clusters, multiprocessor systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Debugging And Monitoring (AREA)
  • Test And Diagnosis Of Digital Computers (AREA)

Abstract

本发明公开一种自动化测试Ceph集群的方法,涉及Ceph集群技术领域,该方法包括测试输入、测试流程和测试输出三个阶段;在测试输入阶段,需要编写一个配置文件作为输入,获取需要进行测试的集群节点信息;在测试流程阶段,通过输入获取的集群信息,调用与集群节点相应的测试脚本进行自动测试,测试项目及结果通过流的方式写入指定文件;在测试输出阶段,当测试结束后输出测试是否成功、集群是否可用的结果,并输出详细测试结果已保存到指定文件的提示信息。本发明可以通过调用现有的测试脚本实现Ceph集群的自动化测试,无需依赖测试人员通过人力完成重复性工作,节省了大量的时间和人力。

Description

一种自动化测试Ceph集群的方法
技术领域
本发明涉及Ceph集群技术领域,具体的说是一种自动化测试Ceph集群的方法。
背景技术
Ceph作为一个统一的分布式存储系统,具有高性能、高可靠性和可扩展性等良好的特性,可支持块存储、文件存储和对象存储三种存储类型,实现了一个后端存储多类型数据。在云计算日益发展的今天,Ceph凭借其这些优点,得到了广泛应用,如OpenStack通过libvirt协议可以与Ceph整合,将Ceph块设备(RBD)作为后端存储提供给虚拟机使用。
Ceph在多台服务器上部署,是可处理PB级数据的统一存储系统,输出更高的性能和容量。Ceph存储集群至少需要一个Ceph Monitor和两个OSD守护进程。而运行Ceph文件系统客户端时,则必须要有元数据服务器(Metadata Server)。Ceph作为分布式系统,在自动化测试方面存在很大困难。Ceph用户的主要关注点在于Ceph集群的功能能否正常使用以及存储性能。
在Ceph功能测试方面,目前多是产品在交付给用户前,由产品测试人员进行手动测试,人工输出测试报告,部署人员根据测试结果进行环境调整后会再次交给测试人员进行测试,即在产品交付给用户前需要进行多次“测试——调整——测试”的过程。事实上,这些功能测试多是重复的过程,如Ceph health状态检查、pool管理功能、RBD管理功能等。全部依靠人力重复这些过程是对人力和时间的一种严重浪费。
Ceph作为存储系统,其性能指的是IO性能,在Ceph性能测试方面,影响Ceph性能的几个考虑点如下:
·OSD磁盘的性能
·如果做了RAID,RAID卡的性能
·存储节点存储网卡的性能
·接入交换机上联到核心的线路性能
故基准测试选择osd磁盘、存储节点和集群3个级别进行测试。对于IO测试,目前已有一些测试工具,包括FIO、Rados Bench。在Ceph测试时,FIO主要用于Ceph搭建前对磁盘性能的测试,而Rados Bench则用于集群整体性能的测试,测试结果主要关注磁盘IOPS、吞吐和时延。针对某一类型的云计算平台,在使用性能测试工具时,所使用的可选参数是经过计算后固定下来的,测试过程也就成为了重复工作。
发明内容
Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式的存储系统。也正是由于Ceph为分布式系统,所以集群功能和性能的测试依赖测试人员通过人力完成重复性工作,且需要对测试结果进行手动提取生成文档用于后续结果分析,并且,Ceph集群的测试通常需要多次进行,以确保所有修改都是使集群更符合客户要求的方向进行的。基于此,提供一种自动化测试Ceph集群的方法,旨在解决常用平台方式的重复性工作,通过获取集群节点信息确定测试执行节点,通过已有的性能测试工具,实现Ceph的自动化测试,
本发明的一种自动化测试Ceph集群的方法,解决上述技术问题采用的技术方案如下:
一种自动化测试Ceph集群的方法,该方法包括测试输入、测试流程和测试输出三个阶段;
在测试输入阶段,需要编写一个配置文件作为输入,获取需要进行测试的集群节点信息;
在测试流程阶段,通过输入获取的集群信息,调用与集群节点相应的测试脚本进行自动测试,测试项目及结果通过流的方式写入指定文件;
在测试输出阶段,当测试结束后输出测试是否成功、集群是否可用的结果,并输出详细测试结果已保存到指定文件的提示信息。
针对上述三个阶段,需要指出的是,测试脚本是已知现有的,编写的配置文件和获取的集群节点信息,可以完成与待测试集群节点相对应测试脚本的调用,进而完成自动测试。
进一步的,在测试输入阶段,需要编写的配置文件为yaml文件,配置文件作为参数,在调用测试脚本进行自动测试时进行传入;配置文件包括且不限于包括:集群ID、可运行客户端的节点IP、osd盘所对应的存储节点IP、集群是否作为OpenStack后端使用、和可选参数测试结果输出文件路径及文件名。
优选的,在测试输入阶段,需要进行测试的集群节点之间需要已经完成免密认证。
进一步的,在测试流程阶段,包括Ceph集群的功能测试和性能测试;
Ceph集群的功能测试包括Ceph集群健康状态检查,Ceph的pool管理功能测试、文块存储、件系统存储功能测试;功能测试过程需要在装有Ceph客户端的节点执行,首先获取Ceph的健康状态进行判断,当Ceph的健康状态为“ERR”时,集群已经不能正常使用,后续功能测试将不再执行;
Ceph集群的性能测试包括集群性能测试、rbd块性能测试、OSD磁盘性能测试、存储节点性能测试;性能测试需要在存储节点进行,即OSD磁盘所挂载的节点。
优选的,在测试流程阶段,Ceph集群作为OpenStack后端使用时,必须进行OSD磁盘性能测试,而Ceph集群不作为OpenStack后端使用时,则无需进行OSD磁盘性能测试。
更进一步的,集群性能测试是通过集成Ceph自带的测试工具Rados Bench进行的,测试过程包括至少一个写过程,顺序读和随机读两个读过程;测试过程中建立测试池test-pool,对其进行不擦除的写操作,提取写操作过程中需要观察的性能参数,获取作为性能测试结果,然后对写入数据分别进行顺序读和随机读操作,同样提取结果参数,作为分析对象,输出结果展示。
更进一步的,集群性能测试的具体流程包括:
1)开始集群性能测试;
2)进行不擦除随机写测试;
3)查看是否写入成功;
a.1)在写入不成功时,擦除写入数据;
a.2)在进行不擦除随机写测试的次数小于3次时,返回执行步骤2);
a.3)在进行不擦除随机写测试的次数大于3次时,结束集群性能测试,输出测试失败的结果;
b.1)在写入成功时,提取测试结果参数,并将提取的测试结果写入报告;
b.2)进行顺序读测试,提取测试结果参数,并将提取的测试结果写入报告;
b.3)进行随机读测试,提取测试结果参数,并将提取的测试结果写入报告,执行步骤4);
4)集群性能测试结束,输出测试成功的结果。
优选的,在测试流程阶段,一方面,需要进行测试的集群节点之间需要已经完成免密认证,以保证不同测试时可以完成节点切换,另一方面,还需要保证节点可以连通网络,实现apt安装测试工具。
进一步的,在测试输出阶段,测试结果的保存路径作为一个可选参数,如果指定了保存位置,则测试结果保存在指定文件中,若未指定,则会默认在当前路径下创建result文件,保存测试结果;
测试结果内容包括测试过程中的全部输出内容和结论;其中,功能测试包括测试过程输出和结论,即集群健康状态、管理功能是否正常,性能测试方面会根据不同性能测试将输出划分成相应的几个部分。
本发明的一种自动化测试Ceph集群的方法,与现有技术相比具有的有益效果是:
1)本发明通过编写配置文件来获取需要进行测试的集群节点信息即可调用相对应的已知、现有的测试脚本,获取正确测试脚本后进行自动测试,实现Ceph的自动化测试;无需依赖测试人员通过人力完成重复性工作,节省了大量的时间和人力;
2)本发明可适用于多个平台,且适用平台发生改变时,只需要更改性能测试时的部分参数为当前平台的最优参数即可实现新平台的自动化测试,技术上具有一定的可移植性。
附图说明
附图1是本发明集群性能测试的流程图。
具体实施方式
为使本发明的技术方案、解决的技术问题和技术效果更加清楚明白,以下结合具体实施例,对本发明的技术方案进行清楚、完整的描述。
实施例一:
本实施例提出一种自动化测试Ceph集群的方法,该方法包括测试输入、测试流程和测试输出三个阶段。
一)在测试输入阶段,需要编写一个配置文件作为输入,获取需要进行测试的集群节点信息。
此阶段中,需要编写的配置文件为yaml文件,配置文件作为参数,在调用测试脚本进行自动测试时进行传入。
配置文件包括且不限于包括:集群ID、可运行客户端的节点IP、osd盘所对应的存储节点IP、集群是否作为OpenStack后端使用、和可选参数测试结果输出文件路径及文件名。
需要进行测试的集群节点之间需要已经完成免密认证。
二)在测试流程阶段,通过输入获取的集群信息,调用与集群节点相应的测试脚本进行自动测试,测试项目及结果通过流的方式写入指定文件。
此阶段,需要指出的是:测试脚本是已知现有的,编写的配置文件和获取的集群节点信息,可以完成与待测试集群节点相对应测试脚本的调用,进而完成自动测试。
在测试流程阶段,包括Ceph集群的功能测试和性能测试。
Ceph集群的功能测试包括Ceph集群健康状态检查,Ceph的pool管理功能测试、文块存储、件系统存储功能测试;功能测试过程需要在装有Ceph客户端的节点执行,首先获取Ceph的健康状态进行判断,当Ceph的健康状态为“ERR”时,集群已经不能正常使用,后续功能测试将不再执行。
Ceph集群的性能测试包括集群性能测试、rbd块性能测试、OSD磁盘性能测试、存储节点性能测试;性能测试需要在存储节点进行,即OSD磁盘所挂载的节点。其中,Ceph集群作为OpenStack后端使用时,必须进行OSD磁盘性能测试,而Ceph集群不作为OpenStack后端使用时,则无需进行OSD磁盘性能测试。
在测试流程阶段,OSD磁盘性能测试通过集成磁盘测试工具fio完成,fio测试过程中所需要的参数,为经过计算后固定的最优一组或两组参数。需要注意的是,应在安装Ceph前或者在未对接OSD的物理磁盘上进行。由于测试时,集群已经存在,所以测试需要在未对接的物理磁盘上进行。当没有未使用磁盘时,若集群作为OpenStack后端使用,将在待测试的磁盘上创建一个卷,将卷挂载到虚机上,通过在虚机上测试卷的性能获取OSD性能。
在测试流程阶段,集群性能测试是通过集成Ceph自带的测试工具Rados Bench进行的,测试过程包括至少一个写过程,顺序读和随机读两个读过程;测试过程中建立测试池test-pool,对其进行不擦除的写操作,提取写操作过程中需要观察的性能参数,获取作为性能测试结果,然后对写入数据分别进行顺序读和随机读操作,同样提取结果参数,作为分析对象,输出结果展示。
在测试流程阶段,集群性能测试的具体流程包括:
1)开始集群性能测试;
2)进行不擦除随机写测试;
3)查看是否写入成功;
a.1)在写入不成功时,擦除写入数据;
a.2)在进行不擦除随机写测试的次数小于3次时,返回执行步骤2);
a.3)在进行不擦除随机写测试的次数大于3次时,结束集群性能测试,输出测试失败的结果;
b.1)在写入成功时,提取测试结果参数,并将提取的测试结果写入报告;
b.2)进行顺序读测试,提取测试结果参数,并将提取的测试结果写入报告;
b.3)进行随机读测试,提取测试结果参数,并将提取的测试结果写入报告,执行步骤4);
4)集群性能测试结束,输出测试成功的结果。
在测试流程阶段,一方面,需要进行测试的集群节点之间需要已经完成免密认证,以保证不同测试时可以完成节点切换,另一方面,还需要保证节点可以连通网络,实现apt安装测试工具。
三)在测试输出阶段,当测试结束后输出测试是否成功、集群是否可用的结果,并输出详细测试结果已保存到指定文件的提示信息。
此阶段,测试结果的保存路径作为一个可选参数,如果指定了保存位置,则测试结果保存在指定文件中,若未指定,则会默认在当前路径下创建result文件,保存测试结果。
测试结果内容包括测试过程中的全部输出内容和结论;其中,功能测试包括测试过程输出和结论,即集群健康状态、管理功能是否正常,性能测试方面会根据不同性能测试将输出划分成相应的几个部分。
综上可知,采用本发明的一种自动化测试Ceph集群的方法,旨在解决常用平台方式的重复性工作,通过获取集群节点信息确定测试执行节点,通过已有的性能测试工具,实现Ceph的自动化测试,
以上应用具体个例对本发明的原理及实施方式进行了详细阐述,这些实施例只是用于帮助理解本发明的核心技术内容。基于本发明的上述具体实施例,本技术领域的技术人员在不脱离本发明原理的前提下,对本发明所作出的任何改进和修饰,皆应落入本发明的专利保护范围。

Claims (7)

1.一种自动化测试Ceph集群的方法,其特征在于,该方法包括测试输入、测试流程和测试输出三个阶段;
在测试输入阶段,需要编写一个配置文件作为输入,获取需要进行测试的集群节点信息;
在测试流程阶段,通过输入获取的集群信息,调用与集群节点相应的测试脚本进行自动测试,测试项目及结果通过流的方式写入指定文件;测试流程阶段包括Ceph集群的功能测试和性能测试,其中,Ceph集群的功能测试包括Ceph集群健康状态检查,Ceph的pool管理功能测试、文块存储及系统存储功能测试;功能测试过程需要在装有Ceph客户端的节点执行,首先获取Ceph的健康状态进行判断,当Ceph的健康状态为“ERR”时,集群已经不能正常使用,后续功能测试将不再执行;Ceph集群的性能测试包括集群性能测试、rbd块性能测试、OSD磁盘性能测试、存储节点性能测试,性能测试需要在存储节点进行,即OSD磁盘所挂载的节点;集群性能测试是通过集成Ceph自带的测试工具Rados Bench进行的,测试过程包括至少一个写过程,顺序读和随机读两个读过程,测试过程中建立测试池test-pool,对其进行不擦除的写操作,提取写操作过程中需要观察的性能参数,获取作为性能测试结果,然后对写入数据分别进行顺序读和随机读操作,同样提取结果参数,作为分析对象,输出结果展示;
在测试输出阶段,当测试结束后输出测试是否成功、集群是否可用的结果,并输出详细测试结果已保存到指定文件的提示信息。
2.根据权利要求1所述的一种自动化测试Ceph集群的方法,其特征在于,在测试输入阶段,需要编写的配置文件为yaml文件,配置文件作为参数,在调用测试脚本进行自动测试时进行传入;配置文件包括且不限于包括:集群ID、可运行客户端的节点IP、osd盘所对应的存储节点IP、集群是否作为OpenStack后端使用、和可选参数测试结果输出文件路径及文件名。
3.根据权利要求2所述的一种自动化测试Ceph集群的方法,其特征在于,在测试输入阶段,需要进行测试的集群节点之间需要已经完成免密认证。
4.根据权利要求1或2或3所述的一种自动化测试Ceph集群的方法,其特征在于,在测试流程阶段,Ceph集群作为OpenStack后端使用时,必须进行OSD磁盘性能测试,而Ceph集群不作为OpenStack后端使用时,则无需进行OSD磁盘性能测试。
5.根据权利要求4所述的一种自动化测试Ceph集群的方法,其特征在于,集群性能测试的具体流程包括:
1)开始集群性能测试;
2)进行不擦除随机写测试;
3)查看是否写入成功;
a.1)在写入不成功时,擦除写入数据;
a.2)在进行不擦除随机写测试的次数小于3次时,返回执行步骤2);
a.3)在进行不擦除随机写测试的次数大于3次时,结束集群性能测试,输出测试失败的结果;
b.1)在写入成功时,提取测试结果参数,并将提取的测试结果写入报告;
b.2)进行顺序读测试,提取测试结果参数,并将提取的测试结果写入报告;
b.3)进行随机读测试,提取测试结果参数,并将提取的测试结果写入报告,执行步骤4);
4)集群性能测试结束,输出测试成功的结果。
6.根据权利要求1或2或3所述的一种自动化测试Ceph集群的方法,其特征在于,在测试流程阶段,一方面,需要进行测试的集群节点之间需要已经完成免密认证,以保证不同测试时可以完成节点切换,另一方面,还需要保证节点可以连通网络,实现apt安装测试工具。
7.根据权利要求1或2或3所述的一种自动化测试Ceph集群的方法,其特征在于,在测试输出阶段,测试结果的保存路径作为一个可选参数,如果指定了保存位置,则测试结果保存在指定文件中,若未指定,则会默认在当前路径下创建result文件,保存测试结果;
测试结果内容包括测试过程中的全部输出内容和结论;其中,功能测试包括测试过程输出和结论,即集群健康状态、管理功能是否正常,性能测试方面会根据不同性能测试将输出划分成相应的几个部分。
CN202010170059.0A 2020-03-12 2020-03-12 一种自动化测试Ceph集群的方法 Active CN111400117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010170059.0A CN111400117B (zh) 2020-03-12 2020-03-12 一种自动化测试Ceph集群的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010170059.0A CN111400117B (zh) 2020-03-12 2020-03-12 一种自动化测试Ceph集群的方法

Publications (2)

Publication Number Publication Date
CN111400117A CN111400117A (zh) 2020-07-10
CN111400117B true CN111400117B (zh) 2023-07-11

Family

ID=71432364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010170059.0A Active CN111400117B (zh) 2020-03-12 2020-03-12 一种自动化测试Ceph集群的方法

Country Status (1)

Country Link
CN (1) CN111400117B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114924919B (zh) * 2022-04-15 2023-01-24 北京志凌海纳科技有限公司 一种节点管理测试方法、系统及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106445754A (zh) * 2016-09-13 2017-02-22 郑州云海信息技术有限公司 一种检查集群健康状态的方法、系统及集群服务器
CN106776166A (zh) * 2016-12-06 2017-05-31 郑州云海信息技术有限公司 一种RDMA模式下Ceph存储集群测试方法及系统
CN107122288A (zh) * 2017-05-08 2017-09-01 郑州云海信息技术有限公司 一种基于IOzone模拟气象平台应用的数据读写测试方法
CN107291594A (zh) * 2017-06-30 2017-10-24 上海白虹软件科技股份有限公司 openstack平台对ceph进行监控和管理的装置及方法
CN107302475A (zh) * 2017-07-06 2017-10-27 郑州云海信息技术有限公司 一种面向分布式存储集群的测试方法及装置
CN107391333A (zh) * 2017-08-14 2017-11-24 郑州云海信息技术有限公司 一种osd磁盘故障测试方法及系统
CN107480039A (zh) * 2017-09-22 2017-12-15 郑州云海信息技术有限公司 一种分布式存储系统的小文件读写性能测试方法及装置
CN109144789A (zh) * 2018-09-10 2019-01-04 网宿科技股份有限公司 一种重启osd的方法、装置及系统
CN109213645A (zh) * 2018-08-23 2019-01-15 郑州云海信息技术有限公司 一种分布式存储系统性能测试的方法和装置
CN109522287A (zh) * 2018-09-18 2019-03-26 平安科技(深圳)有限公司 分布式文件存储集群的监控方法、系统、设备及介质
CN109634824A (zh) * 2018-12-03 2019-04-16 郑州云海信息技术有限公司 一种广电业务场景下的分布式存储性能测试方法及系统
CN109902028A (zh) * 2019-04-11 2019-06-18 苏州浪潮智能科技有限公司 Acl特性的自动化测试方法、装置、设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170010930A1 (en) * 2015-07-08 2017-01-12 Cisco Technology, Inc. Interactive mechanism to view logs and metrics upon an anomaly in a distributed storage system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106445754A (zh) * 2016-09-13 2017-02-22 郑州云海信息技术有限公司 一种检查集群健康状态的方法、系统及集群服务器
CN106776166A (zh) * 2016-12-06 2017-05-31 郑州云海信息技术有限公司 一种RDMA模式下Ceph存储集群测试方法及系统
CN107122288A (zh) * 2017-05-08 2017-09-01 郑州云海信息技术有限公司 一种基于IOzone模拟气象平台应用的数据读写测试方法
CN107291594A (zh) * 2017-06-30 2017-10-24 上海白虹软件科技股份有限公司 openstack平台对ceph进行监控和管理的装置及方法
CN107302475A (zh) * 2017-07-06 2017-10-27 郑州云海信息技术有限公司 一种面向分布式存储集群的测试方法及装置
CN107391333A (zh) * 2017-08-14 2017-11-24 郑州云海信息技术有限公司 一种osd磁盘故障测试方法及系统
CN107480039A (zh) * 2017-09-22 2017-12-15 郑州云海信息技术有限公司 一种分布式存储系统的小文件读写性能测试方法及装置
CN109213645A (zh) * 2018-08-23 2019-01-15 郑州云海信息技术有限公司 一种分布式存储系统性能测试的方法和装置
CN109144789A (zh) * 2018-09-10 2019-01-04 网宿科技股份有限公司 一种重启osd的方法、装置及系统
CN109522287A (zh) * 2018-09-18 2019-03-26 平安科技(深圳)有限公司 分布式文件存储集群的监控方法、系统、设备及介质
CN109634824A (zh) * 2018-12-03 2019-04-16 郑州云海信息技术有限公司 一种广电业务场景下的分布式存储性能测试方法及系统
CN109902028A (zh) * 2019-04-11 2019-06-18 苏州浪潮智能科技有限公司 Acl特性的自动化测试方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111400117A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN110245078B (zh) 一种软件的压力测试方法、装置、存储介质和服务器
CN108399114B (zh) 一种系统性能测试方法、装置及存储介质
WO2018120721A1 (zh) 用户界面的测试方法、系统、电子装置及计算机可读存储介质
CN107436844B (zh) 一种接口用例合集的生成方法及装置
US10037255B2 (en) Device, method and program for performing system testing
CN112463144B (zh) 分布式存储的命令行服务方法、系统、终端及存储介质
CN114546738B (zh) 服务器通用测试方法、系统、终端及存储介质
CN107807883B (zh) 一种用户态网络文件系统的单元测试方法及装置
CN109522181B (zh) 一种分布式存储系统的性能测试方法、装置和设备
WO2017017691A1 (en) Testing computing devices
CN111400117B (zh) 一种自动化测试Ceph集群的方法
CN109324933A (zh) 一种AEP内存reboot测试方法、装置、终端及存储介质
CN112148599A (zh) 性能压测方法、装置及设备
CN107357701B (zh) 一种分布式场景下sas信号测试方法及装置
CN113127312B (zh) 用于数据库性能测试的方法、装置、电子设备及存储介质
CN113127369A (zh) 一种执行脚本的处理方法以及装置
CN112231236A (zh) 一种数据库性能的测试方法
CN113900928B (zh) 一种io负载自动化测试方法、装置
CN101699408A (zh) 一种多操作系统整合测试方法
CN114116291B (zh) 日志检测方法、日志检测装置、计算机设备及存储介质
CN114003419B (zh) 一种基于oses实现内存ras特性自动测试的方法、系统及装置
US9239775B1 (en) Coordinated testing
JP2012503819A (ja) 外部記憶アレイにおいて帯域外管理アプリケーションを認証するための方法及び/又は装置
CN115878482A (zh) 一种产品测试方法及相关装置
CN116893976A (zh) 软件版本测试方法、系统、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant