CN110795304A - 分布式存储系统性能测试的方法及装置 - Google Patents
分布式存储系统性能测试的方法及装置 Download PDFInfo
- Publication number
- CN110795304A CN110795304A CN201910962068.0A CN201910962068A CN110795304A CN 110795304 A CN110795304 A CN 110795304A CN 201910962068 A CN201910962068 A CN 201910962068A CN 110795304 A CN110795304 A CN 110795304A
- Authority
- CN
- China
- Prior art keywords
- test
- fio
- osd
- storage system
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/3003—Monitoring arrangements specially adapted to the computing system or computing system component being monitored
- G06F11/3006—Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is distributed, e.g. networked systems, clusters, multiprocessor systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/3003—Monitoring arrangements specially adapted to the computing system or computing system component being monitored
- G06F11/3034—Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a storage system, e.g. DASD based or network based
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3409—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种分布式存储系统性能测试的方法及装置,其中该方法包括:对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果。如此,能够自动完成分布式存储系统的性能测试过程,缩短了分布式存储系统性能测试的时间,减少测试周期、人力、物力的投入,而且得出的测试结果具有普遍参考适用价值。
Description
技术领域
本发明实施例涉及分布式存储系统性能测试技术,尤指一种分布式存储系统性能测试的方法及装置。
背景技术
在5G和物联网时代,将进一步推动低成本、低功耗技术超大型数据中心发展,对于服务器的需求也是多种多样的,而分布式云存储系统基于其良好的可靠性、稳定性、可扩展性,将通用硬件引入的不稳定因素降到最低,在各种应用方面都表现出了绝对的优势。随着数据存储规模持续爆炸式的增长,那么就需要对现有数据中心的分布式存储系统有计划地进行扩容,但是在扩容之前,需要考虑何时进行扩容、扩容到什么规模,预采购系统设备的容量、性能是否满足当下和短期未来业务系统不断增长变化的需求等一系列问题。
针对上述问题,通常需要投入大量的时间、人力来搭建环境,解决POC(Proof ofConcept,验证性测试)测试前各种开源软件、引擎、库的依赖关系、不同硬件系统的参数配置、不同机型配置的分区配比关系等等,并配置模拟各种各样的真实业务类型进行存储性能测试,测试效率低下。
而且由于不同工程师对分布式云存储系统的理解深度不同、测试方法、调优能力不同,在评测分布式云存储系统集群性能时,无法执行统一有效的用例标准进行性能测试作为衡量参考等等,从而导致不同操作人员得出的测试结果差异性较大,参考价值较低。
发明内容
有鉴于此,本发明实施例提供了一种分布式存储系统性能测试的方法,包括:
对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;
对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果。
本发明实施例还提供了一种分布式存储系统性能测试的装置,包括:
对象存储设备OSD配置模块,用于对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;
存储性能测试模块,用于对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果。
本发明实施例还提供了一种分布式存储系统性能测试的装置,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述分布式存储系统性能测试的方法。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有信息处理程序,所述信息处理程序被处理器执行时实现上述分布式存储系统性能测试的方法的步骤。
本发明实施例提供的技术方案,能够自动完成分布式存储系统的性能测试过程,缩短了分布式存储系统性能测试的时间,减少测试周期、人力、物力的投入,而且得出的测试结果具有普遍参考适用价值。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的其他优点可通过在说明书、权利要求书以及附图中所描述的方案来实现和获得。
附图说明
附图用来提供对本申请技术方案的理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请的技术方案,并不构成对本申请技术方案的限制。
图1为本发明一实施例提供的一种分布式存储系统性能测试的方法的流程示意图;
图2为本发明另一实施例提供的一种分布式存储系统性能测试的方法的流程示意图;
图3为本发明另一实施例提供的一种分布式存储系统性能测试的方法的流程示意图;
图4为本发明一实施例提供的一种分布式存储系统性能测试的装置的结构示意图;
图5为本发明另一实施例提供的一种分布式存储系统性能测试的装置的结构示意图。
具体实施方式
本申请描述了多个实施例,但是该描述是示例性的,而不是限制性的,并且对于本领域的普通技术人员来说显而易见的是,在本申请所描述的实施例包含的范围内可以有更多的实施例和实现方案。尽管在附图中示出了许多可能的特征组合,并在具体实施方式中进行了讨论,但是所公开的特征的许多其它组合方式也是可能的。除非特意加以限制的情况以外,任何实施例的任何特征或元件可以与任何其它实施例中的任何其他特征或元件结合使用,或可以替代任何其它实施例中的任何其他特征或元件。
本申请包括并设想了与本领域普通技术人员已知的特征和元件的组合。本申请已经公开的实施例、特征和元件也可以与任何常规特征或元件组合,以形成由权利要求限定的独特的发明方案。任何实施例的任何特征或元件也可以与来自其它发明方案的特征或元件组合,以形成另一个由权利要求限定的独特的发明方案。因此,应当理解,在本申请中示出和/或讨论的任何特征可以单独地或以任何适当的组合来实现。因此,除了根据所附权利要求及其等同替换所做的限制以外,实施例不受其它限制。此外,可以在所附权利要求的保护范围内进行各种修改和改变。
此外,在描述具有代表性的实施例时,说明书可能已经将方法和/或过程呈现为特定的步骤序列。然而,在该方法或过程不依赖于本文所述步骤的特定顺序的程度上,该方法或过程不应限于所述的特定顺序的步骤。如本领域普通技术人员将理解的,其它的步骤顺序也是可能的。因此,说明书中阐述的步骤的特定顺序不应被解释为对权利要求的限制。此外,针对该方法和/或过程的权利要求不应限于按照所写顺序执行它们的步骤,本领域技术人员可以容易地理解,这些顺序可以变化,并且仍然保持在本申请实施例的精神和范围内。
图1为本发明一实施例提供的一种分布式存储系统性能测试的方法的流程示意图,如图1所示,该方法包括:
步骤101,对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;
步骤102,对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果。
其中,所述对所述分布式存储系统的所有节点进行自动化分区,包括:
根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储;
当需要分开存储时,对慢速设备批量执行data大小的连续m个分区操作,较快设备执行db大小的连续total_num(data)个分区操作、wal大小的连续total_num(data)个分区操作;m为正整数,total_num(data)为data的分区个数;
当不需要分开存储时,直接执行操作partition_data,批量完成所有节点的自动分区。
其中,所述根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储,包括:
当所述分布式存储系统下的设备类型数量大于等于2,则OSD的data、db和wal日志部分需要分开存储,否则不需要分开存储。
其中,所述统一命名得到的分区,包括:
对得到的分区通过parted lable命令按照OSD所属存储空间buket和存储内容进行格式化编号命名;
所述基于所述统一命名后的分区批量创建OSD,包括:
以root用户身份配置节点互信,使用volume创建命令基于格式化编号命名后的分区批量创建OSD。
其中,所述对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果,包括:
确定fio测试程序执行的全局参数,按照fio单个任务测试文件的大小,批量准备volume;按照所述全局参数和准备好的volume进行fio大块全盘写,完成volume的预分配;
对预分配后的volume执行fio测试程序;
从fio测试程序过程中的输出文件中过滤出iops_log、bw_log和lat_log信息,按目录进行汇总,得出不同测试模型下的测试结果。
其中,在对所述分布式存储系统的所有节点进行自动化分区之前,该方法还包括:
对所述分布式存储系统的执行集群环境预检查和测试环境预安装。
其中,在解析和统计fio测试结果之后,该方法还包括:
进行测试环境恢复,包括:批量删除volume和osd、退出集群、擦除块设备。
本实施例提供的技术方案,能够自动完成分布式存储系统的性能测试过程,缩短了分布式存储系统性能测试的时间,减少测试周期、人力、物力的投入,而且得出的测试结果具有普遍参考适用价值。
图2为发明另一实施例提供的一种分布式存储系统性能测试的方法的流程示意图,如图2所示,该方法包括:
步骤201,对分布式存储系统执行集群环境预检查和测试环境预安装;
其中,集群环境预检查,主要是执行集群健康状态检查,包括检查网络环境、防火墙、端口、互信、集群时钟同步等等的状态,对异常状态给出解决方式操作提示和对应的修复执行程序,便于初级工程师能够快速根据指导完成集群问题修复。
其中,测试环境预安装,主要是通过自动化、批量、静默安装完成测试所需要的编译器工具、解压工具、解析器、系统资源监控工具、智能平台管理接口工具以及fio(磁盘测试工具)安装所需要的一系列依赖包等等。同时关闭一些影响不必要的服务进程,避免占用系统资源,导致测试结果统计不准确。
步骤202,对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;
其中,所述对所述分布式存储系统的所有节点进行自动化分区,包括:
根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储;
当需要分开存储时,对慢速设备批量执行data大小的连续m个分区操作,较快设备执行db大小的连续total_num(data)个分区操作、wal大小的连续total_num(data)个分区操作;m为正整数,total_num(data)为data的分区个数;
当不需要分开存储时,直接执行操作partition_data,批量完成所有节点的自动分区。
其中,所述根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储,包括:
当所述分布式存储系统下的设备类型数量大于等于2,则OSD的data、db和wal日志部分需要分开存储,否则不需要分开存储。
例如,自动化分区过程中,首先,通过lsblk(list block,列块表)检查统计当前分布式存储系统下有几种设备类型,确认osd的data和db、wal日志部分是否分开存储。如果设备类型数量大于等于2,则osd的data、db(datebase,数据库)、wal(Write-Ahead Logging,预写式日志)需要分开存储,否则默认统一存储在相同设备。其次,如果data、db、wal需要分开存储,则对慢速设备(例如(sata(Serial ATA,Serial Advanced TechnologyAttachment,串行高级技术附件)/sas(Serial Attached SCSI,串行连接小型计算机系统接口,Serial Attached Small Computer System Interface)/hdd(Hard Disk Drive,硬盘驱动器)等)批量执行data大小的连续4个分区操作,较快设备(例如nvme(非易失性内存主机控制器接口规范,Non-Volatile Memory express))执行db大小的连续total_num(data)个分区操作、wal大小的连续total_num(data)个分区操作。如果不需要分开存储,直接执行操作partition_data,批量完成所有节点的自动分区。
其中,所述统一命名得到的分区,包括:
对得到的分区通过parted lable命令按照OSD所属存储空间buket和存储内容进行格式化编号命名。
例如,通过parted lable命令按照osd所属buket(表头)和存储内容进行0-N或者其他格式化编号命名,比如bucket类型为host时,host1上所有分区依次命名为osd-host1-data-[0-7]、osd-host1-db-[0-7]、osd-host1-wal-[0-7],其他节点类似。
其中,所述基于所述统一命名后的分区批量创建OSD,包括:
以root用户身份配置节点互信,使用volume创建命令基于格式化编号命名后的分区批量创建OSD。
例如,以root用户(超级用户)身份,配置多节点互信,使用volume创建命令,按照规范化的分区命名,实现多个节点多个osd的快速批量创建。
步骤203,对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果;
其中,所述对创建的OSD进行容器volume初始化,包括:确定fio测试程序执行的全局参数,按照fio单个任务测试文件的大小,批量准备volume;按照所述全局参数和准备好的volume进行fio大块全盘写,完成volume的预分配;
例如,volume初始化过程中,首先,会先检查分布式存储系统集群的总容量、系统cpu超线程数量,从而确定fio程序执行的全局参数。比如:如果集群总的可用容量total*0.8>=60GB,则默认fio测试的文件size大小为60GB。如果集群总的可用容量total*0.8<60GB,则默认fio测试任务的size为round(total*0.8)。如果cpu超线程数HT(Hyper-Threading Technology,超线程技术)<32,则fio队里深度默认为QD=2n<HT*0.8;当队列深度超过32时,性能提升不明显,但会增加延迟,影响测试结果,因此HT>=32时,fio队列深度可以使用默认值,例如32。其余全局参数,按照测试经验,默认配置为最优。其次,按照fio单个任务测试文件的大小,批量准备volume。最后,按照生成的fio参数脚本和准备好的volume进行fio大块全盘写,完成volume的预分配,避免volume精简配置在fio测试过程中的不稳定性。
其中,所述对初始化后的volume执行fio测试程序,包括:对预分配后的volume执行fio测试程序;
例如,预先准备好fio测试程序,该fio测试程序可以是已经预先定制化、场景化好的fio测试程序。操作人员可以直接采用现有的任一fio测试程序,也可以针对不同的测试要求事先编写好对应的fio测试程序。对此,并不作限定。
其中,所述解析和统计fio测试结果,包括:从fio测试程序过程中的输出文件中过滤出iops_log、bw_log和lat_log信息,按目录进行汇总,得出不同测试模型下的测试结果。
步骤204,进行测试环境恢复。
其中,所述进行测试环境恢复,包括:批量删除volume和osd、退出集群、擦除块设备。
例如,通过程序控制批量完成删除volume、pool、osd、退出集群,擦除块设备等一系列操作。
本实施例提供的技术方案,使测试工程师无需花费大量时间去了解分布式存储系统的处理流程、不同测试工具、测试模型、测试配置、设备接口类型所需要的最佳配置,也不需要工程师手动依次去调整各种规划和配置,这样缩短了分布式存储性能测试评估的时间,减少测试周期、人力、物力的投入,而且适用本发明提供的测试装置得出的测试结果具有普遍参考适用价值。
图3为发明另一实施例提供的一种分布式存储系统性能测试的方法的流程示意图。
本实施例中,分布式存储系统以ceph分布式云存储系统为例进行说明。
如图3所示,该方法包括:
步骤301,测试前环境配置,包括集群环境预检查和测试环境预安装。
其中,集群环境预检查,主要是执行集群健康状态检查,包括网络环境、防火墙、端口、互信、集群时钟同步等,对异常状态给并出解决方式操作提示和对应的修复执行程序,便于初级工程师能够快速根据指导完成集群问题修复。本步骤中,具体执行集群健康状态检查的方法可以为现有的检测方案。可以事先保存有各种异常状态和对应的解决方式,如果健康检查出有异常,则进行自动修复或者提示。例如,可以提前封装常用的检测命令,比如,集群整体健康检查命令ceph-s;防火墙状态service firewalld status、getenforce;互信和时钟同步检测ssh cephd@$osd-hostname date;;当执行集群整体健康状态检查ceph–s命令时,正常返回结果为HEALTH_OK;如果不是HEALTH_OK,则提示异常信息和对应的操作提示sh env_rebuild.sh。上述故障修复程序(env_rebuild.sh)主要包含的操作有:统一执行关闭所有节点的防火墙、配置所有节点互信、配置集群时钟同步、同步集群配置文件、确认集群健康状态等,并返回ceph status命令输出的集群健康结果信息等。本申请的发明人根据大量测试经验发现,绝大部分常见的异常信息主要是OSD进程通信故障引起,因此上述修复程序能解决日常测试中的绝大部分故障,但不能修复所有故障,比如节点意外关机、软件bug等,针对该故障可以给出提示由操作人员进行处理。
当集群环境健康检查中,确定集群环境为健康时,才进行后续的测试环境预安装;当集群环境健康检查中,确定集群环境为不健康时,先进行集群修复,再判断修复后的集群环境是否健康,当健康时进行后续的测试环境预安装,当还是不健康时,继续进行修复,以此类推。
步骤302,OSD配置,包括自动化分区、分区统一命名、OSD批量创建;
其中,自动化分区过程中,首先,通过lsblk(list block,列块表)检查统计当前系统下有几种设备类型,确认osd的data数据和db(datebase,数据库)、wal(Write-AheadLogging,预写式日志)日志部分是否分开存储。如果设备类型数量大于等于2,则ceph osd的data、db、wal会分开存储,否则默认统一存储在相同设备。其次,如果data、db、wal分开存储,则对慢速设备(sata(Serial ATA,Serial Advanced Technology Attachment,串行高级技术附件)/sas(Serial Attached SCSI,串行连接小型计算机系统接口,SerialAttached Small Computer System Interface)/hdd(Hard Disk Drive,硬盘驱动器))批量执行data大小的连续m个分区操作,较快设备(nvme(非易失性内存主机控制器接口规范,Non-Volatile Memory express))执行db大小的连续total_num(data)个分区操作、wal大小的连续total_num(data)个分区操作。如果不分开存储,直接执行操作partition_data,批量完成所有OSD节点的自动分区。
具体而言,设备类型可以根据系统下“设备命名格式”差异和“设备容量”差异的进行区分。例如,Lsblk会输出系统下所有类型的块设备,并按属性列显示设备名称、容量、类型等信息,通过统计lsblk某属性列,可以得出设备类型信息。sata/sas/hdd等scsi设备在系统下命名格式为sd[a-z][a-z],nvme设备命名格式为nvme*,出现2种以上命名格式,则认为存在快慢设备,其中以nvme*命名的为快设备,其余为慢设备;如果是sata类型的2种快慢设备,如sata ssd和sata hdd,则根据不同容量的设备进行统计,出现2种以上不同容量的,则认为存在快慢2种设备。其中,同一容量设备总数少的为快设备;其余为慢设备。
具体而言,上述分开存储是指data存储在慢设备,db和wal存储在快速设备。将data和db、wal分开存储到快慢设备,可以提高ceph集群的性能,类似于windows操作系统盘用快速设备,日常软件和文档数据放在慢速设备,这样能提高响应速度。
具体而言,本申请的发明人从大量POC测试总结得出,在4个分区时,所有测试场景均能得到最优、次优。因此,m=4,即上述批量执行data大小的连续4个分区操作是一种最优选择,也可以是其他数量的分区。
具体而言,data、db、wal的大小可以提前固定好。例如,Data大小是根据设备的总容量平均4分。根据测试经验db和wal空间需求不大,例如可以默认固定为20GB。
具体而言,上述total_num(data)是指data分区的个数,例如4。
其中,分区统一命名,主要是通过parted lable命令按照osd所属buket(表头)和存储内容进行格式化编号命名。
具体而言,格式化编号命名可以自定义,例如,为了便于后续快速识别和故障检测,设置带有buket属性和”用途”属性的编号,采用0-N格式化编号命名,比如bucket类型为host时,host1上所有分区依次命名为osd-host1-data-[0-7]、osd-host1-db-[0-7]、osd-host1-wal-[0-7],其他节点类似。由于如果不统一命名,ceph会自动命名,但格式超长,不容易区别,比如”ceph--d4a30e3--80a8--4c4c--98f6—yyyy-zzzz-xxxx-zzzzz-yyyy”。
其中,OSD批量创建,主要是以root用户(超级用户)身份,配置多节点互信,使用ceph-volume创建命令,按照规范化的分区命名,实现多个节点,多个osd的快速批量创建。
具体而言,可以采用现有技术配置多节点互信。有集群架构的系统一般都需要配置多节点互信,便于节点之间可以无密码访问其他节点进行数据同步。
具体而言,一个设备或者分区就是一个osd,同一个节点有多块设备,所以是多个节点、多个osd。因为集群配置了互信,所以可以在一个节点,指定不同的节点名,就能自动完成所有节点的操作。
步骤303,存储性能标准测试,包括volume初始化、执行fio标准测试和fio结果解析和统计;
其中,volume初始化部分,首先,会先检查ceph集群的总容量total、系统cpu超线程数量HT(Hyper-Threading Technology,超线程技术),从而确定fio程序执行的全局参数。
具体而言,例如如果ceph集群总的可用容量total*0.8>=60GB,则默认fio测试的文件size大小为60GB。如果ceph总的可用容量total*0.8<60GB,则默认fio测试任务的size为round(total*0.8)。如果cpu超线程数HT<32,则fio队列深度默认为QD(Queue Depth,队列深度)=2n<HT*0.8,n指的是2的幂次方,即队里深度要为2,4,8,16,32,64等,但是要小于系统总核心负载的80%;本申请的发明人从大量测试总结发现,使用的所有接口类型设备,如sata/nvme等,当队列深度超过32时,性能提升不明显,但会增加延迟,影响测试结果,因此HT>=32时,fio队列深度可以使用默认值,例如32。
其余全局参数,按照测试经验,默认配置为最优。例如,任务名称name、IO引擎ioengine、块大小block、是否使用缓存direct等,这些全局变量一般不随设备类型、节点配置不同而变化,因此默认固定即可。
其次,按照fio单个任务测试文件的大小,批量准备ceph volume。
具体而言,比如默认fio单个测试文件大小为60GB,则在集群上批量创建多个60GB的RBD image。ceph支持3种存储类型,块存储、对象存储、文件存储。块设备性能最接近设备本身的性能,RBD(RADOS BLOCK Device)就是指ceph块存储类型。
最后,按照生成的fio参数脚本(即上述全局参数)和准备好的ceph volume进行fio大块全盘写,完成volume的预分配,避免ceph volume精简配置在fio测试过程中的不稳定性。
具体而言,精简配置就是现用现分配,用多少分多少,空间是动态扩展的。提前完成一次性预分配,可以避免fio测试过程中,边进行存储性能测试边分配存储空间的情况,可以提高测试的结果。
其中,fio标准测试部分,执行定制化、场景化准备好的fio测试程序,等待执行结束。
具体而言,可以事先保存好fio测试程序,包括所有业务场景的测试程序,如随机读、随机写、混合读写、顺序读、顺序写场景等。该fio测试程序可以是现有的测试程序,也可以是满足特定要求提前写好的测试程序。
其中,fio结果解析和统计,对fio测试程序过程中的输出文件,过滤出iops_log,bw_log,lat_log信息,按目录进行汇总,得出不同测试模型下的测试结果。
具体而言,上述目录是指在程序中自动强制创建为/root/fio/$mode的目录。其中目录中的mode为不同测试模型。不同测试模型是指:随机读测试模型、随机写测试模型、混合读写测试模型、顺序读测试模型、顺序写测试模型等。
步骤304,测试后环境恢复。
其中,测试后环境恢复,包括:删除volume、Disk退出集群、擦除Disk。
例如,通过程序控制批量完成删除ceph volume、ceph pool、ceph osd、退出集群,擦除块设备等一系列操作。
该步骤的目的是为了设备还原。即,清除所有测试配置和测试数据,解除系统对设备的占用,便于下次其他地方或者工程师可以直接使用。
本实施例提供的技术方案,总结大量分布式存储系统POC(Proof of Concept,验证性测试)测试的经验,能够自动化实现ceph分布式存储集群的性能测试中的一系列过程,用于简化日常集成方案测试和客户POC测试时间,避免ceph分布式存储集群因采用不同型号、不同容量、不同接口类型的磁盘设备,不同数量的osd(Object Storage Device,对象存储设备)节点,需要依次手动进行不同程度的设备分区、命名lun(Logical Unit Number,逻辑单元号)、osd创建、参数设置等操作,提高了测试效率。也避免了集群创建完成后,因为不同工程师对ceph的理解深度不同、测试方法、调优能力不同,在评测ceph集群性能时,无法执行统一有效的用例标准进行性能测试作为衡量参考等问题。
本实施例提供的技术方案,使测试工程师无需花费大量时间去了解ceph的处理流程、不同测试工具、测试模型、测试配置、设备接口类型所需要的最佳配置,也不需要工程师手动依次去调整各种规划和配置,这样缩短了分布式存储性能测试评估的时间,减少测试周期、人力、物力的投入,而且适用本发明提供的测试装置得出的测试结果具有普遍参考适用价值。
图4为发明一实施例提供的一种分布式存储系统性能测试的装置的结构示意图,如图4所示,该装置包括:
对象存储设备OSD配置模块,用于对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;
存储性能测试模块,用于对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果。
其中,所述OSD配置模块包括:
分区子模块,用于对所述分布式存储系统的所有节点进行自动化分区;
分区命名子模块,用于统一命名所述自动化分区模块得到的分区;
OSD批量创建子模块,用于根据统一命名后的分区批量创建OSD。
其中,所述分区子模块,具体用于根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储;当需要分开存储时,对慢速设备批量执行data大小的连续m个分区操作,较快设备执行db大小的连续total_num(data)个分区操作、wal大小的连续total_num(data)个分区操作;当不需要分开存储时,直接执行操作partition_data,批量完成所有节点的自动分区;
所述分区命名子模块,具体用于对所述分区子模块得到的分区通过parted lable命令按照OSD所属存储空间buket和存储内容进行格式化编号命名;
所述OSD批量创建子模块,具体用于以root用户身份配置节点互信,使用volume创建命令基于格式化编号命名后的分区批量创建OSD。
其中,所述根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储,包括:
当所述分布式存储系统下的设备类型数量大于等于2,则OSD的data、db和wal日志部分需要分开存储,否则不需要分开存储。
其中,所述存储性能测试模块包括:
volume初始化子模块,用于对创建的OSD进行容器volume初始化;
fio测试子模块,用于对初始化后的volume执行fio测试程序;
fio结果解析和统计子模块,用于解析和统计fio测试结果。
其中,所述volume初始化子模块,具体用于确定fio测试程序执行的全局参数,按照fio单个任务测试文件的大小,批量准备volume;按照所述全局参数和准备好的volume进行fio大块全盘写,完成volume的预分配;
所述fio测试子模块,具体用于对预分配后的volume执行fio测试程序;
所述fio结果解析和统计子模块,具体用于从fio测试程序过程中的输出文件中过滤出iops_log、bw_log和lat_log信息,按目录进行汇总,得出不同测试模型下的测试结果。
其中,该装置还包括:
测试前环境配置模块,用于在对象存储设备OSD配置模块对所述分布式存储系统的磁盘disk进行自动化分区之前,执行集群环境预检查和测试环境预安装。
其中,该装置还包括:
测试环境恢复模块,用于在解析和统计fio测试结果之后,进行测试环境恢复。
其中,所述进行测试环境恢复包括:批量删除volume和osd、退出集群、擦除块设备。
本发明实施例提供的技术方案,能够自动完成分布式存储系统的性能测试过程,缩短了分布式存储系统性能测试的时间,减少测试周期、人力、物力的投入,而且得出的测试结果具有普遍参考适用价值。
图5为发明另一实施例提供的一种分布式存储系统性能测试的装置的结构示意图。
本实施例中,分布式存储系统以ceph分布式云存储系统为例进行说明。
如图5所示,该装置包括:测试前环境配置模块、OSD配置模块、存储性能测试模块和测试环境恢复模块。
其中,测试前环境配置模块,用于执行集群环境预检查和测试环境预安
其中,集群环境预检查,主要是执行集群健康状态检查,包括网络环境、防火墙、端口、互信、集群时钟同步等,对异常状态给并出解决方式操作提示和对应的修复执行程序,便于初级工程师能够快速根据指导完成集群问题修复。
具体而言,具体执行集群健康状态检查的方法可以为现有的检测方案。例如,可以事先保存有各种异常状态和对应的解决方式,如果健康检查出有异常,则进行自动修复或者提示。例如,可以提前封装常用的检测命令,比如,集群整体健康检查命令ceph-s;防火墙状态service firewalld status、getenforce;互信和时钟同步检测ssh cephd@$osd-hostname date;;当执行集群整体健康状态检查ceph–s命令时,正常返回结果为HEALTH_OK;如果不是HEALTH_OK,则提示异常信息和对应的操作提示sh env_rebuild.sh。上述故障修复程序(env_rebuild.sh)主要包含的操作有:统一执行关闭所有节点的防火墙、配置所有节点互信、配置集群时钟同步、同步集群配置文件、确认集群健康状态等,并返回cephstatus命令输出的集群健康结果信息等。本申请的发明人根据大量测试经验发现,绝大部分常见的异常信息主要是OSD进程通信故障引起,因此上述修复程序能解决日常测试中的绝大部分故障,但不能修复所有故障,比如节点意外关机、软件bug等,针对该故障可以给出提示由操作人员进行处理。
当集群环境健康检查中,确定集群环境为健康时,才进行后续的测试环境预安装;当集群环境健康检查中,确定集群环境为不健康时,先进行集群修复,再判断修复后的集群环境是否健康,当健康时进行后续的测试环境预安装,当还是不健康时,继续进行修复,以此类推。
其中,OSD配置模块,包括:
分区子模块,用于对所述分布式存储系统的所有节点进行自动化分区;
分区命名子模块,用于统一命名所述自动化分区模块得到的分区;
OSD批量创建子模块,用于根据统一命名后的分区批量创建OSD。
其中,分区子模块,具体用于在自动化分区过程中,首先,通过lsblk(list block,列块表)检查统计当前系统下有几种设备类型,确认osd的data数据和db(datebase,数据库)、wal(Write-Ahead Logging,预写式日志)日志部分是否分开存储。如果设备类型数量大于等于2,则ceph osd的data、db、wal会分开存储,否则默认统一存储在相同设备其次,如果data、db、wal分开存储,则对慢速设备(sata(Serial ATA,Serial Advanced TechnologyAttachment,串行高级技术附件)/sas(Serial Attached SCSI,串行连接小型计算机系统接口,Serial Attached Small Computer System Interface)/hdd(Hard Disk Drive,硬盘驱动器))批量执行data大小的连续m个分区操作,较快设备(nvme(非易失性内存主机控制器接口规范,Non-Volatile Memory express))执行db大小的连续total_num(data)个分区操作、wal大小的连续total_num(data)个分区操作。如果不分开存储,直接执行操作partition_data,批量完成所有OSD节点的自动分区。
具体而言,设备类型可以根据系统下“设备命名格式”差异和“设备容量”差异的进行区分。例如,Lsblk会输出系统下所有类型的块设备,并按属性列显示设备名称、容量、类型等信息,通过统计lsblk某属性列,可以得出设备类型信息。sata/sas/hdd等scsi设备在系统下命名格式为sd[a-z][a-z],nvme设备命名格式为nvme*,出现2种以上命名格式,则认为存在快慢设备,其中以nvme*命名的为快设备,其余为慢设备;如果是sata类型的2种快慢设备,如sata ssd和sata hdd,则根据不同容量的设备进行统计,出现2种以上不同容量的,则认为存在快慢2种设备。其中,同一容量设备总数少的为快设备;其余为慢设备。
具体而言,上述分开存储是指data存储在慢设备,db和wal存储在快速设备。将data和db、wal分开存储到快慢设备,可以提高ceph集群的性能,类似于windows操作系统盘用快速设备,日常软件和文档数据放在慢速设备,这样能提高响应速度。
具体而言,本申请的发明人从大量POC测试总结得出,在4个分区时,所有测试场景均能得到最优、次优。因此,m=4,即上述批量执行data大小的连续4个分区操作是一种最优选择,也可以是其他数量的分区。
具体而言,data、db、wal的大小可以提前固定好。例如,Data大小是根据设备的总容量平均4分。根据测试经验db和wal空间需求不大,例如可以默认固定为20GB。
具体而言,上述total_num(data)是指data分区的个数,例如4。
其中,分区命名子模块,具体用于通过parted lable命令按照osd所属buket(表头)和存储内容进行格式化编号命名。
具体而言,格式化编号命名可以自定义,例如,为了便于后续快速识别和故障检测,设置带有buket属性和”用途”属性的编号,采用0-N格式化编号命名,比如bucket类型为host时,host1上所有分区依次命名为osd-host1-data-[0-7]、osd-host1-db-[0-7]、osd-host1-wal-[0-7],其他节点类似。由于如果不统一命名,ceph会自动命名,但格式超长,不容易区别,比如”ceph--d4a30e3--80a8--4c4c--98f6—yyyy-zzzz-xxxx-zzzzz-yyyy”。
其中,OSD批量创建子模块,具体用于以root用户(超级用户)身份,配置多节点互信,使用ceph-volume创建命令,按照规范化的分区命名,实现多个节点,多个osd的快速批量创建。
具体而言,可以采用现有技术配置多节点互信。有集群架构的系统一般都需要配置多节点互信,便于节点之间可以无密码访问其他节点进行数据同步。
具体而言,一个设备或者分区就是一个osd,同一个节点有多块设备,所以是多个节点、多个osd。因为集群配置了互信,所以可以在一个节点,指定不同的节点名,就能自动完成所有节点的操作。
其中,所述存储性能测试模块包括:
volume初始化子模块,用于对创建的OSD进行容器volume初始化;
fio测试子模块,用于对初始化后的volume执行fio测试程序;
fio结果解析和统计子模块,用于解析和统计fio测试结果。
其中,volume初始化子模块,具体用于,volume初始化部分,包括:首先,会先检查ceph集群的总容量total、系统cpu超线程数量HT(Hyper-Threading Technology,超线程技术),从而确定fio程序执行的全局参数。
具体而言,如果ceph集群总的可用容量total*0.8>=60GB,则默认fio测试的文件size大小为60GB。如果ceph总的可用容量total*0.8<60GB,则默认fio测试任务的size为round(total*0.8)。如果cpu超线程数HT<32,则fio队列深度默认为QD=2n<HT*0.8,n指的是2的幂次方,即队里深度要为2,4,8,16,32,64等,但是要小于系统总核心负载的80%;本申请的发明人从大量测试总结发现,使用的所有接口类型设备,如sata/nvme等,当队列深度超过32时,性能提升不明显,但会增加延迟,影响测试结果,因此HT>=32时,fio队列深度可以使用默认值,例如32。
其余全局参数,按照测试经验,默认配置为最优。例如,任务名称name、IO引擎ioengine、块大小block、是否使用缓存direct等,这些全局变量一般不随设备类型、节点配置不同而变化,因此默认固定即可。
其次,按照fio单个任务测试文件的大小,批量准备ceph volume。
具体而言,比如默认fio单个测试文件大小为60GB,则在集群上批量创建多个60GB的RBD image。ceph支持3种存储类型,块存储、对象存储、文件存储。块设备性能最接近设备本身的性能,RBD(RADOS BLOCK Device)就是指ceph块存储类型。
最后,按照生成的fio参数脚本(即上述全局参数)和准备好的ceph volume进行fio大块全盘写,完成volume的预分配,避免ceph volume精简配置在fio测试过程中的不稳定性。
具体而言,精简配置就是现用现分配,用多少分多少,空间是动态扩展的。提前完成一次性预分配,可以避免fio测试过程中,边进行存储性能测试边分配存储空间的情况,可以提高测试的结果。
其中,fio测试子模块,具体用于fio标准测试部分,包括:执行定制化、场景化准备好的fio测试程序,等待执行结束。
具体而言,可以事先保存好fio测试程序,包括所有业务场景的测试程序,如随机读、随机写、混合读写、顺序读、顺序写场景等。该fio测试程序可以是现有的测试程序,也可以是满足特定要求提前写好的测试程序。
其中,fio结果解析和统计子模块,具体用于fio结果解析和统计,包括对fio测试程序过程中的输出文件,过滤出iops_log,bw_log,lat_log信息,按目录进行汇总,得出不同测试模型下的测试结果。
具体而言,上述目录是指在程序中自动强制创建为/root/fio/$mode的目录。其中目录中的mode为不同测试模型。不同测试模型是指:随机读测试模型、随机写测试模型、混合读写测试模型、顺序读测试模型、顺序写测试模型等。
其中,测试环境恢复模块,用于测试后环境恢复,包括:删除volume、Disk退出集群、擦除Disk等。
例如,通过程序控制批量完成删除ceph volume、ceph pool、ceph osd、退出集群,擦除块设备等一系列操作。
该步骤的目的是为了设备还原。即,清除所有测试配置和测试数据,解除系统对设备的占用,便于下次其他地方或者工程师可以直接使用。
本实施例提供的技术方案,总结大量分布式存储系统POC(Proof of Concept,验证性测试)测试的经验,能够自动化实现ceph分布式存储集群的性能测试中的一系列过程,用于简化日常集成方案测试和客户POC测试时间,避免ceph分布式存储集群因采用不同型号、不同容量、不同接口类型的磁盘设备,不同数量的osd(Object Storage Device,对象存储设备)节点,需要依次手动进行不同程度的设备分区、命名lun(Logical Unit Number,逻辑单元号)、osd创建、参数设置等操作,提高了测试效率。也避免了集群创建完成后,因为不同工程师对ceph的理解深度不同、测试方法、调优能力不同,在评测ceph集群性能时,无法执行统一有效的用例标准进行性能测试作为衡量参考等问题。
本实施例提供的技术方案,使测试工程师无需花费大量时间去了解ceph的处理流程、不同测试工具、测试模型、测试配置、设备接口类型所需要的最佳配置,也不需要工程师手动依次去调整各种规划和配置,这样缩短了分布式存储性能测试评估的时间,减少测试周期、人力、物力的投入,而且适用本发明提供的测试装置得出的测试结果具有普遍参考适用价值。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些组件或所有组件可以被实施为由处理器,如数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
Claims (10)
1.一种分布式存储系统性能测试的方法,其特征在于,包括:
对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;
对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述分布式存储系统的所有节点进行自动化分区,包括:
根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储;
当需要分开存储时,对慢速设备批量执行data大小的连续m个分区操作,较快设备执行db大小的连续total_num(data)个分区操作、wal大小的连续total_num(data)个分区操作;m为正整数,total_num(data)为data的分区个数;
当不需要分开存储时,直接执行操作partition_data,批量完成所有节点的自动分区。
3.根据权利要求2所述的方法,其特征在于,所述根据所述分布式存储系统下的设备类型确认OSD的data、db和wal日志部分是否需要分开存储,包括:
当所述分布式存储系统下的设备类型数量大于等于2,则OSD的data、db和wal日志部分需要分开存储,否则不需要分开存储。
4.根据权利要求1所述的方法,其特征在于,所述统一命名得到的分区,包括:
对得到的分区通过parted lable命令按照OSD所属存储空间buket和存储内容进行格式化编号命名;
所述基于所述统一命名后的分区批量创建OSD,包括:
以root用户身份配置节点互信,使用volume创建命令基于格式化编号命名后的分区批量创建OSD。
5.根据权利要求1所述的方法,其特征在于,所述对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果,包括:
确定fio测试程序执行的全局参数,按照fio单个任务测试文件的大小,批量准备volume;按照所述全局参数和准备好的volume进行fio大块全盘写,完成volume的预分配;
对预分配后的volume执行fio测试程序;
从fio测试程序过程中的输出文件中过滤出iops_log、bw_log和lat_log信息,按目录进行汇总,得出不同测试模型下的测试结果。
6.根据权利要求1所述的方法,其特征在于,在对所述分布式存储系统的所有节点进行自动化分区之前,该方法还包括:
对所述分布式存储系统执行集群环境预检查和测试环境预安装。
7.根据权利要求1所述的方法,其特征在于,在解析和统计fio测试结果之后,该方法还包括:
进行测试环境恢复,包括:批量删除volume和osd、退出集群、擦除块设备。
8.一种分布式存储系统性能测试的装置,其特征在于,包括:
对象存储设备OSD配置模块,用于对所述分布式存储系统的所有节点进行自动化分区以及统一命名得到的分区,基于所述统一命名后的分区批量创建OSD;
存储性能测试模块,用于对创建的OSD进行容器volume初始化,对初始化后的volume执行fio测试程序,解析和统计fio测试结果。
9.一种分布式存储系统性能测试的装置,其特征在于,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述分布式存储系统性能测试的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有信息处理程序,所述信息处理程序被处理器执行时实现如权利要求1至7中任一项所述分布式存储系统性能测试的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910962068.0A CN110795304B (zh) | 2019-10-11 | 2019-10-11 | 分布式存储系统性能测试的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910962068.0A CN110795304B (zh) | 2019-10-11 | 2019-10-11 | 分布式存储系统性能测试的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110795304A true CN110795304A (zh) | 2020-02-14 |
CN110795304B CN110795304B (zh) | 2023-01-10 |
Family
ID=69439134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910962068.0A Active CN110795304B (zh) | 2019-10-11 | 2019-10-11 | 分布式存储系统性能测试的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110795304B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821165A (zh) * | 2021-08-20 | 2021-12-21 | 济南浪潮数据技术有限公司 | 一种分布式集群融合存储方法、系统及设备 |
CN113961408A (zh) * | 2021-10-25 | 2022-01-21 | 西安超越申泰信息科技有限公司 | 一种优化Ceph存储性能的测试方法、设备及介质 |
WO2023147746A1 (zh) * | 2022-02-07 | 2023-08-10 | 苏州浪潮智能科技有限公司 | 一种部署osd的方法、装置及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105302681A (zh) * | 2015-11-04 | 2016-02-03 | 浪潮电子信息产业股份有限公司 | 一种rack整机柜磁盘性能的自动化测试方法 |
CN109213645A (zh) * | 2018-08-23 | 2019-01-15 | 郑州云海信息技术有限公司 | 一种分布式存储系统性能测试的方法和装置 |
CN110162471A (zh) * | 2019-04-28 | 2019-08-23 | 中国工商银行股份有限公司 | 一种基于容器云的压力测试方法及系统 |
-
2019
- 2019-10-11 CN CN201910962068.0A patent/CN110795304B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105302681A (zh) * | 2015-11-04 | 2016-02-03 | 浪潮电子信息产业股份有限公司 | 一种rack整机柜磁盘性能的自动化测试方法 |
CN109213645A (zh) * | 2018-08-23 | 2019-01-15 | 郑州云海信息技术有限公司 | 一种分布式存储系统性能测试的方法和装置 |
CN110162471A (zh) * | 2019-04-28 | 2019-08-23 | 中国工商银行股份有限公司 | 一种基于容器云的压力测试方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821165A (zh) * | 2021-08-20 | 2021-12-21 | 济南浪潮数据技术有限公司 | 一种分布式集群融合存储方法、系统及设备 |
CN113821165B (zh) * | 2021-08-20 | 2023-12-22 | 济南浪潮数据技术有限公司 | 一种分布式集群融合存储方法、系统及设备 |
CN113961408A (zh) * | 2021-10-25 | 2022-01-21 | 西安超越申泰信息科技有限公司 | 一种优化Ceph存储性能的测试方法、设备及介质 |
WO2023147746A1 (zh) * | 2022-02-07 | 2023-08-10 | 苏州浪潮智能科技有限公司 | 一种部署osd的方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110795304B (zh) | 2023-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110795304B (zh) | 分布式存储系统性能测试的方法及装置 | |
US10175973B2 (en) | Microcode upgrade in a storage system | |
US11924117B2 (en) | Automated local scaling of compute instances | |
US10254986B2 (en) | Implicit coordination for deployment of computing systems using a data sharing service | |
CN111309734B (zh) | 自动生成表数据的方法及系统 | |
US20200104246A1 (en) | Continuous automation with test suite engine | |
CN112068852B (zh) | 基于国产服务器的开源软件安装方法、系统及设备和介质 | |
CN114629831A (zh) | 一种网卡性能测试方法、装置、设备和存储介质 | |
WO2019100690A1 (zh) | 电子装置、测试的方法、系统及计算机可读存储介质 | |
CN116382991A (zh) | 一种存储设备测试方法、装置、计算机设备及存储介质 | |
US20120124425A1 (en) | Method and Apparatus Useful In Manufacturing Test Case Operations | |
CN112527325B (zh) | 一种应用于超融合架构的部署方法及系统 | |
CN111625407B (zh) | Ssd性能测试方法及相关组件 | |
CN117033099A (zh) | 一种系统硬盘的压力测试方法、系统、装置及存储介质 | |
CN116383021A (zh) | 软件包性能的测试方法、系统、计算设备及可读存储介质 | |
CN115617668A (zh) | 一种兼容性测试方法、装置及设备 | |
CN115168124A (zh) | 硬盘并发执行多个文件的稳定性测试方法、装置、计算机设备及介质 | |
CN115237441A (zh) | 一种基于云平台的升级测试方法、装置及介质 | |
CN108334313A (zh) | 用于大型soc研发的持续集成方法、装置及代码管理系统 | |
US10922249B2 (en) | Input/output control code filter | |
CN109728929B (zh) | 一种测试方法、装置及存储介质 | |
US7743244B2 (en) | Computer system model generation with tracking of actual computer system configuration | |
CN112433922B (zh) | 一种存储性能测试方法和装置 | |
CN113625956B (zh) | Raid卡的缓存设置方法、装置、电子设备及存储介质 | |
CN112380108B (zh) | 一种面向分区空间隔离的全自动测试方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |