CN111240894A - 用于对基于Ceph的对象存储系统进行故障分析的系统和介质 - Google Patents

用于对基于Ceph的对象存储系统进行故障分析的系统和介质 Download PDF

Info

Publication number
CN111240894A
CN111240894A CN201911410092.XA CN201911410092A CN111240894A CN 111240894 A CN111240894 A CN 111240894A CN 201911410092 A CN201911410092 A CN 201911410092A CN 111240894 A CN111240894 A CN 111240894A
Authority
CN
China
Prior art keywords
osd
list
acquiring
end server
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911410092.XA
Other languages
English (en)
Other versions
CN111240894B (zh
Inventor
刘鹤煜
谷亚军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Construction Bank Corp
Original Assignee
China Construction Bank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Construction Bank Corp filed Critical China Construction Bank Corp
Priority to CN201911410092.XA priority Critical patent/CN111240894B/zh
Publication of CN111240894A publication Critical patent/CN111240894A/zh
Application granted granted Critical
Publication of CN111240894B publication Critical patent/CN111240894B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/142Reconfiguring to eliminate the error
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本文公开了一种用于对基于Ceph的对象存储系统进行故障分析的系统和介质,涉及计算机应用技术领域。所述系统包括前端设备和后端服务器,其中,所述后端服务器在接收到所述前端设备获取osd、pg列表的请求后,向所述对象存储系统获取集群的osd、pg列表;处理所述osd、pg列表得到ip‑osd列表、osd‑pg列表、ip‑pg列表,并将所述ip‑osd列表、osd‑pg列表、ip‑pg列表返回给所述前端设备;所述前端设备将ip‑osd列表展现在前端页面,根据运维人员输入的两个故障节点IP或磁盘ID从ip‑pg列表或osd‑pg列表查询受影响的pg,并将受影响的pg显示在前端页面。可以在节点或磁盘故障时迅速判断影响范围及迁移恢复时间,提高工作效率。

Description

用于对基于Ceph的对象存储系统进行故障分析的系统和介质
技术领域
本发明涉及计算机应用技术领域,具体地,涉及一种用于对基于Ceph的对象存储系统进行故障分析的系统和存储介质。
背景技术
Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。
Ceph的核心组件包括:OSD,全称Object Storage Device,负责响应客户端请求返回具体数据的进程,一个Ceph集群有很多个OSD;Monitor,一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据;Object是Ceph最底层的存储单元,每个Object包含元数据和原始数据;PG,全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据;CRUSH是Ceph使用的数据分布算法,类似一致性哈希,让数据分配到预期的地方。
目前主流的Ceph开源监控软件有:Calamari、VSM、Inkscope、Ceph-Dash、Zabbix等。例如,Calamari对外提供了Web管理和监控界面,以及一套改进的REST API接口(不同于Ceph自身的REST API),在一定程度上简化了Ceph的管理。Calamari为Ceph的运维和管理提供了一个统一的平台,用户可以基于这个平台扩展自己的存储管理产品,但同时也存在着不足和需要改进的地方。该监控工具侧重对节点的管理及集群状态的查看,但无法在故障场景中帮助运维人员判断故障影响范围和恢复时间。
发明内容
鉴于现有技术存在的上述缺陷,本发明实施方式提供了一种用于对基于Ceph的对象存储系统进行故障分析的系统和存储介质,可以帮助运维人员判断故障影响范围和恢复时间。
根据本发明的第一方面,本发明的实施方式提供了一种用于对基于Ceph的对象存储系统进行故障分析的系统,其包括前端设备和后端服务器;其中,所述前端设备包括用于执行以下操作的故障影响查询模块:从所述后端服务器获取ip-osd列表(即IP地址与OSD状态对应的列表)、osd-pg列表(即OSD状态与PG状态对应的列表)、ip-pg列表(即IP地址与PG状态对应的列表),并将ip-osd列表展现在前端页面;根据运维人员输入的两个故障节点IP或磁盘ID从ip-pg列表或osd-pg列表查询受影响的pg,并将受影响的pg显示在前端页面;其中,所述后端服务器包括用于执行以下操作的osd及pg列表获取模块:在接收到所述前端设备获取osd、pg列表的请求后,向所述对象存储系统获取集群的osd、pg列表;处理所述osd、pg列表得到ip-osd列表、osd-pg列表、ip-pg列表,并将所述ip-osd列表、osd-pg列表、ip-pg列表返回给所述前端设备。
在本发明的一些实施方式中,所述前端设备还包括迁移恢复时间预算模块,用于执行以下操作:从所述后端服务器得到ip-osd存储状态列表和osd之间的传输速率,并将所述ip-osd存储状态列表展示在前端页面;根据运维人员输入的故障节点IP或磁盘ID从ip-osd存储状态列表确定待迁移的数据量;根据所述待迁移的数据量和所述传输速率计算数据迁移时间;将计算得到的数据迁移时间展示在前端页面;并且,所述后端服务器还包括传输速率计算模块,用于执行以下操作:在接收到所述前端设备获取恢复时间的请求后,从所述对象存储系统获取osd列表及集群状态信息;处理据所述osd列表及集群状态信息得到ip-osd存储状态列表;根据磁盘IO性能和集群配置计算osd之间的传输速率;将所述ip-osd存储状态列表和所述传输率返回给所述前端设备。
在本发明的一些实施方式中,所述前端设备还包括扩缩容影响预判模块,用于执行以下操作:从所述后端服务器获取crushmap及osd-pg列表;将所述crushmap及osd-pg列表展示在前端页面;将运维人员输入的需要扩缩容的节点信息及磁盘信息发送至所述后端服务器;获取所述后端服务器返回的根据需要扩缩容的节点信息及磁盘信息计算得到的新的pg分布;并且,所述后端服务器还包括扩缩容影响计算模块,用于执行以下操作:在接收到所述前端服务器发送的预判扩缩容影响的请求后,从所述对象存储系统获取集群的crushmap及pg列表;处理所述crushmap及pg列表得到crushmap及osd-pg列表;将得到的crushmap及osd-pg列表返回给所述前端设备;根据所述前端设备发送的需要扩缩容的节点信息及磁盘信息,采用crush算法计算新的pg分布;将新的pg分布返回至所述前端设备。
在本发明的一些实施方式中,所述前端设备还包括osd状态实时展示模块,用于向所述后端服务器发送获取osd状态的请求并将所述后端服务器响应所述请求而返回的集群节点的osd状态信息以预定形式展现在前端页面上;并且,所述后端服务器还包括osd状态处理模块,用于在接收到所述前端设备发送的获osd状态的请求后向所述Ceph的对象存储系统获取集群节点的osd状态信息,并将获取的集群节点的osd状态信息返回给所述前端设备。在本发明的可选实施方式中,所述预定形式包括树形结构,并且用不同的颜色显示集群节点的osd的不同状态。
根据本发明的第二方面,本发明实施方式提供了一种用于对基于Ceph的对象存储系统进行故障分析的系统,其包括前端设备和后端服务器。
其中,所述前端设备包括显示器、第一存储器和第一处理器,所述第一存储器上存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器获取ip-osd列表、osd-pg列表、ip-pg列表,并将ip-osd列表通过所述显示器展现在前端页面;根据运维人员输入的两个故障节点IP或磁盘ID从ip-pg列表或osd-pg列表查询受影响的pg,并将受影响的pg通过所述显示器显示在前端页面;
其中,所述后端服务器包括第二存储器和第二处理器,所述第二存储器上存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端设备获取osd、pg列表的请求后,向所述对象存储系统获取集群的osd、pg列表;处理所述osd、pg列表得到ip-osd列表、osd-pg列表、ip-pg列表,并将所述ip-osd列表、osd-pg列表、ip-pg列表返回给所述前端设备。
在本发明的一些实施方式中,在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器得到ip-osd存储状态列表和osd之间的传输速率,并将所述ip-osd存储状态列表通过所述显示器展示在前端页面;根据运维人员输入的故障节点IP或磁盘ID从ip-osd存储状态列表确定待迁移的数据量;根据所述待迁移的数据量和所述传输速率计算数据迁移时间;将计算得到的数据迁移时间通过所述显示器展示在前端页面;
并且,在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端设备获取恢复时间的请求后,从所述对象存储系统获取osd列表及集群状态信息;处理据所述osd列表及集群状态信息得到ip-osd存储状态列表;根据磁盘IO性能和集群配置计算osd之间的传输速率;将所述ip-osd存储状态列表和所述传输率返回给所述前端设备。
在本发明的一些实施方式中,在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器获取crushmap及osd-pg列表;将所述crushmap及osd-pg列表展示在前端页面;将运维人员输入的需要扩缩容的节点信息及磁盘信息发送至所述后端服务器;获取所述后端服务器返回的根据需要扩缩容的节点信息及磁盘信息计算得到的新的pg分布;
并且,在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端服务器发送的预判扩缩容影响的请求后,从所述对象存储系统获取集群的crushmap及pg列表;处理所述crushmap及pg列表得到crushmap及osd-pg列表;将得到的crushmap及osd-pg列表返回给所述前端设备;根据所述前端设备发送的需要扩缩容的节点信息及磁盘信息,采用crush算法计算新的pg分布;将新的pg分布返回至所述前端设备。
在本发明的一些实施方式中,在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
向所述后端服务器发送获取osd状态的请求,并将所述后端服务器响应所述请求而返回的集群节点的osd状态信息以预定形式通过所述显示器展现在前端页面上;其中,所述预定形式可以包括树形结构,并且用不同的颜色显示集群节点的osd的不同状态;
并且,在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
osd状态处理模块,用于在接收到所述前端设备发送的获osd状态的请求后向所述Ceph的对象存储系统获取集群节点的osd状态信息,并将获取的集群节点的osd状态信息返回给所述前端设备。
根据本发明的第三方面,本发明实施方式提供了一种计算机可读存储介质,其特征在于,其上存储有计算机可读指令,所述计算机可读指令被处理器执行时进行上述任一实施方式的系统中的前端设备所执行的操作或后端服务器所执行的操作。
由上述可知,本发明在监控集群状态的基础上,增加了故障分析功能,能够支持节点或磁盘故障、存储扩缩容等场景下的影响范围预判;支持集群节点变化前后数据迁移的容量及时间预算。可以在节点或磁盘故障时迅速判断影响范围及迁移恢复时间,提高工作效率。
附图说明
图1A是根据本发明一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图;
图1B是根据本发明一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统实现故障影响查询的流程图。
图2A是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图;
图2B是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统实现恢复时间预算的流程图。
图3A是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图;
图3B是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统实现扩缩容影响预判的流程图。
图4A是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图;
图4B是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统实现osd状态实时展示的流程图。
具体实施方式
为了便于理解本发明技术方案的各个方面、特征以及优点,下面结合附图对本发明进行具体描述。应当理解,下述的各种实施方式只用于举例说明,而非用于限制本发明的保护范围。
图1A是根据本发明一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图。如图1所示,所述系统可以包括前端设备(简称为“前端”)和后端服务器(简称为“后端”),所述前端设备和后端服务器可以通过网络连接。
所述前端设备包括故障影响查询模块110,用于执行以下操作:从所述后端服务器获取ip-osd列表、osd-pg列表、ip-pg列表,并将ip-osd列表展现在前端页面;根据运维人员输入的两个故障节点IP或磁盘ID从ip-pg列表或osd-pg列表查询受影响的pg,并将受影响的pg显示在前端页面。
所述后端服务器包括osd及pg列表获取模块210,用于执行以下操作:在接收到所述前端设备获取osd、pg列表的请求后,向所述对象存储系统获取集群的osd、pg列表;处理所述osd、pg列表得到ip-osd列表、osd-pg列表、ip-pg列表,并将所述ip-osd列表、osd-pg列表、ip-pg列表返回给所述前端设备。
根据本发明实施方式,可以获取ip-osd列表、osd-pg列表、ip-pg列表,进而可以根据输入的故障节点IP或磁盘ID预判节点或磁盘故障时,受到影响的pg数量以及pg id,帮助运维人员判断节点、磁盘故障时是否影响数据三副本以及影响三副本的pg列表。
图1B示出了根据上述实施方式的故障影响查询的流程,所述系统进行故障影响查询的流程包括:
S101:运维人员点击“故障分析”标签,通过/faultcheck接口发送请求。
S102:前端通过接口/getPgOsdList将请求发送至后端。
S103:后端通过接口/api/v0.1/osd/dump.json、/api/v0.1/pg/dump.json向ceph-rest-api请求集群osd、pg列表。其中,ceph-rest-api是一个WSGI(Web ServiceGateway Interface)应用程序,可作为网页服务独立运行,也可在支持WSGI的网页服务器下运行。它通过HTTP访问接口提供了ceph命令行工具的大多数功能。通过ceph的REST API可以获取集群状态信息,也可以对集群配置作出修改。
S104:后端收到返回结果后进行处理,得到ip-osd列表、osd-pg列表、ip-pg列表。
S105:将ip-osd列表、osd-pg列表、ip-pg列表返回前端。
S106:将ip-osd列表展示在前端。
S107:运维人员输入两个故障节点IP或磁盘ID,点击查询。
S108:前端根据ip-pg列表或osd-pg列表查询影响范围。
S109:将影响的pg列表展示在前端。
图2A是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图。
在本发明的一种实施方式中,所述前端设备除了包括所述故障影响查询模块110外,进一步包括迁移恢复时间预算模块120,用于执行以下操作:从所述后端服务器得到ip-osd存储状态列表和osd之间的传输速率,并将所述ip-osd存储状态列表展示在前端页面;根据运维人员输入的故障节点IP或磁盘ID从ip-osd存储状态列表确定待迁移的数据量;根据所述待迁移的数据量和所述传输速率计算数据迁移时间;将计算得到的数据迁移时间展示在前端页面;
并且,所述后端服务器除了osd及pg列表获取模块210外,包括进一步包括传输速率计算模块220,用于执行以下操作:在接收到所述前端设备获取恢复时间的请求后,从所述对象存储系统获取osd列表及集群状态信息;处理据所述osd列表及集群状态信息得到ip-osd存储状态列表;根据磁盘IO性能和集群配置计算osd之间的传输速率;将所述ip-osd存储状态列表和所述传输率返回给所述前端设备。
在本发明的可选实施方式中,所述前端设备可以只包括迁移恢复时间预算模块120,所述后端服务器可以只包括传输速率计算模块220。
根据本发明实施方式,可以判断集群出现数据迁移时,迁移恢复的时间,方便运维人员预算迁移恢复时间,判断业务影响。
如图2B所示,所述系统进行恢复时间预算的流程包括:
S201:运维人员点击“迁移恢复”标签,通过接口/recoverytime下发请求。
S202:前端通过接口/getRecoveryTime将请求下发至后端。
S203:后端通过/api/v0.1/pg/dump.json、api/v0.1/status.json接口获取osd列表及集群状态信息。
S204-205:处理返回结果得到ip-osd存储状态列表,并根据磁盘IO性能和集群配置估算osd之间的传输速率。
S206-207:后端将处理结果返回并展示在前端。
S208:输入故障磁盘ID或节点IP,点击查询。
S209:按照下面的公式估算数据迁移时间:
Figure BDA0002349748570000081
公式中,data为待迁移数据量,v为估算的osd之间的传输速率。
S210:将步骤9计算的结果展示在前端页面。
图3A是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图。
在本发明的一些实施方式中,所述前端设备除了包括故障影响查询模块110、迁移恢复时间计算模块120外,还包括扩缩容影响预判模块130,用于执行以下操作:从所述后端服务器获取crushmap及osd-pg列表;将所述crushmap及osd-pg列表展示在前端页面;将运维人员输入的需要扩缩容的节点信息及磁盘信息发送至所述后端服务器;获取所述后端服务器返回的根据需要扩缩容的节点信息及磁盘信息计算得到的新的pg分布。
并且,所述后端服务器除了包括osd及pg列表获取模块210、传输速率计算模块220外,还包括扩缩容影响计算模块230,用于执行以下操作:在接收到所述前端服务器发送的预判扩缩容影响的请求后,从所述对象存储系统获取集群的crushmap及pg列表;处理所述crushmap及pg列表得到crushmap及osd-pg列表;将得到的crushmap及osd-pg列表返回给所述前端设备;根据所述前端设备发送的需要扩缩容的节点信息及磁盘信息,采用crush算法计算新的pg分布;将新的pg分布返回至所述前端设备。
在本发明的可选实施方式中,所述前端设备可以只包括扩容影响预判模块130,所述后端服务器可以只包括扩容影响计算模块230。在本发明的又一可选实施方式中,所述前端设备可以包括迁移恢复时间预算模块120和扩容影响预判模块130,所述后端服务器可以包括传输速率计算模块220和扩容影响计算模块230。在本发明的其他实施方式中,所述前端设备可以包括故障影响查询模块110和扩容影响预判模块130,所述后端服务器可以包括osd及pg列表获取模块210和扩容影响计算模块230。
根据本发明的上述实施方式,可以判断集群扩缩容时影响的pg范围,以及需要重新分布的数据情况,帮助运维人员判断扩缩容影响范围。
如图3B所示,所述系统进行扩缩容影响预判的处理流程包括:
S301:运维人员点击“扩缩容影响”标签,通过/capacityaffect接口下发请求。
S302:前端通过接口/getCapacityAffect向后端发送请求。
S303:后端通过/api/v0.1/pg/dump.json、/api/v0.1/osd/crush/dump.json接口向ceph-rest-api请求集群crushmap及pg列表信息。
S304:后端收到响应信息后进行处理,得到crushmap及osd-pg列表。
S305-306:后端将crushmap及osd-pg列表返回前端展示在前端页面上。
S307-308:运维人员输入需要扩缩容的节点信息及磁盘信息,前端将该信息发送给后端。
S309-S311:后端利用crush算法计算新的pg分布情况,并将结果返回、展示在前端。
图4A是根据本发明另一种实施方式的用于对基于Ceph的对象存储系统进行故障分析的系统的框图。
在本发明的一些实施方式中,所述前端设备除了包括故障影响查询模块110、迁移恢复时间计算模块120、扩缩容影响预判模块130外,还包括osd状态实时展示模块140,用于向所述后端服务器发送获取osd状态的请求并将所述后端服务器响应所述请求而返回的集群节点的osd状态信息以预定形式展现在前端页面上。
并且,所述后端服务器除了包括osd及pg列表获取模块210、传输速率计算模块220、扩缩容影响计算模块230,还包括osd状态处理模块240,用于在接收到所述前端设备发送的获osd状态的请求后向所述Ceph的对象存储系统获取集群节点的osd状态信息,并将获取的集群节点的osd状态信息返回给所述前端设备。在本发明的可选实施方式中,所述预定形式包括树形结构,并且用不同的颜色显示集群节点的osd的不同状态。
在本发明的可选实施方式中,所述前端设备可以只包括osd状态实时展示模块140,所述后端服务器可以只包括osd状态处理模块240。在本发明的其他可选实施方式中,所述前端设备除了osd状态实时展示模块140外,还可以包括故障影响查询模块110、迁移恢复时间预算模块120和扩容影响预判模块130中的任意一个或多个,所述后端服务器除了包括osd状态处理模块240外,还可以包括osd及pg列表获取模块210、传输速率计算模块220和扩容影响计算模块230中的任意一个或多个。
根据上述实施方式,可以实时查看集群节点及磁盘状态,并以树状结构展示在前端页面。绿色表示osd状态为‘up’,黄色表示osd状态为‘down’,红色表示osd状态为‘out’。子节点状态异常时,父节点也会显示异常状态。可以帮助运维人员迅速定位问题节点或磁盘。
如图4B所示,所述系统进行osd状态查询的流程包括:
S401:运维人员点击“状态查询”标签,选择需要查看的集群名称,点击“查询”查看相应集群的osd状态。
S402:前端通过接口/getOsdStatus将请求发送给后端。
S403:后端通过接口/api/v0.1/osd/dump.json向ceph-rest-api发起请求,获取osd状态列表。
S404-405:后端收到ceph-rest-api返回的osd状态信息后进行处理,得到host-osd列表及osd状态信息返回前端。
S406:前端收到后端返回的响应后,以树状结构将osd状态展示在前端页面上,不同状态的osd展示为不同颜色。
现有的Ceph监控平台只能获取简单的集群状态信息,不能对故障场景进行分析和预判,本发明可以通过ceph-rest-api获取集群状态信息,在监控集群状态的基础上,增加故障分析功能,能够支持节点或磁盘故障、存储扩缩容等场景下的影响范围预判,分析需要迁移的数据量及迁移目的节点和磁盘;支持集群节点变化前后数据迁移的容量及时间预算,可以在节点或磁盘故障时迅速判断影响范围及迁移恢复时间,提高工作效率。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可借助软件结合硬件平台的方式来实现。基于这样的理解,本发明的技术方案对背景技术做出贡献的全部或者部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
一方面,本发明实施方式提供了一种用于对基于Ceph的对象存储系统故障分析的系统,其包括前端设备和后端服务器。
其中,所述前端设备包括显示器、第一存储器和第一处理器,所述第一存储器上存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器获取ip-osd列表、osd-pg列表、ip-pg列表,并将ip-osd列表通过所述显示器展现在前端页面;根据运维人员输入的两个故障节点IP或磁盘ID从ip-pg列表或osd-pg列表查询受影响的pg,并将受影响的pg通过所述显示器显示在前端页面;
其中,所述后端服务器包括第二存储器和第二处理器,所述第二存储器上存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端设备获取osd、pg列表的请求后,向所述对象存储系统获取集群的osd、pg列表;处理所述osd、pg列表得到ip-osd列表、osd-pg列表、ip-pg列表,并将所述ip-osd列表、osd-pg列表、ip-pg列表返回给所述前端设备。
在本发明的一些实施方式中,在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器得到ip-osd存储状态列表和osd之间的传输速率,并将所述ip-osd存储状态列表通过所述显示器展示在前端页面;根据运维人员输入的故障节点IP或磁盘ID从ip-osd存储状态列表确定待迁移的数据量;根据所述待迁移的数据量和所述传输速率计算数据迁移时间;将计算得到的数据迁移时间通过所述显示器展示在前端页面;
并且,在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端设备获取恢复时间的请求后,从所述对象存储系统获取osd列表及集群状态信息;处理据所述osd列表及集群状态信息得到ip-osd存储状态列表;根据磁盘IO性能和集群配置计算osd之间的传输速率;将所述ip-osd存储状态列表和所述传输率返回给所述前端设备。
在本发明的一些实施方式中,在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器获取crushmap及osd-pg列表;将所述crushmap及osd-pg列表展示在前端页面;将运维人员输入的需要扩缩容的节点信息及磁盘信息发送至所述后端服务器;获取所述后端服务器返回的根据需要扩缩容的节点信息及磁盘信息计算得到的新的pg分布;
并且,在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端服务器发送的预判扩缩容影响的请求后,从所述对象存储系统获取集群的crushmap及pg列表;处理所述crushmap及pg列表得到crushmap及osd-pg列表;将得到的crushmap及osd-pg列表返回给所述前端设备;根据所述前端设备发送的需要扩缩容的节点信息及磁盘信息,采用crush算法计算新的pg分布;将新的pg分布返回至所述前端设备。
在本发明的一些实施方式中,在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
向所述后端服务器发送获取osd状态的请求,并将所述后端服务器响应所述请求而返回的集群节点的osd状态信息以预定形式通过所述显示器展现在前端页面上;其中,所述预定形式可以包括树形结构,并且用不同的颜色显示集群节点的osd的不同状态;
并且,在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
osd状态处理模块,用于在接收到所述前端设备发送的获osd状态的请求后向所述Ceph的对象存储系统获取集群节点的osd状态信息,并将获取的集群节点的osd状态信息返回给所述前端设备。
另一方面,本发明实施方式提供了一种计算机可读存储介质,其特征在于,其上存储有计算机可读指令,所述计算机可读指令被处理器执行时进行上述任一实施方式的系统中的前端设备所执行的操作或后端服务器所执行的操作。
本领技术人员应当理解,以上所公开的仅为本发明的实施方式而已,当然不能以此来限定本发明之权利范围,依本发明实施方式所作的等同变化,仍属本发明权利要求所涵盖的范围。

Claims (11)

1.一种用于对基于Ceph的对象存储系统进行故障分析的系统,其特征在于,所述系统包括前端设备和后端服务器;
其中,所述前端设备包括:
故障影响查询模块,用于执行以下操作:从所述后端服务器获取ip-osd列表、osd-pg列表、ip-pg列表,并将ip-osd列表展现在前端页面;根据运维人员输入的两个故障节点IP或磁盘ID从ip-pg列表或osd-pg列表查询受影响的pg,并将受影响的pg显示在前端页面;
其中,所述后端服务器包括:
osd及pg列表获取模块,用于执行以下操作:在接收到所述前端设备获取osd、pg列表的请求后,向所述对象存储系统获取集群的osd、pg列表;处理所述osd、pg列表得到ip-osd列表、osd-pg列表、ip-pg列表,并将所述ip-osd列表、osd-pg列表、ip-pg列表返回给所述前端设备。
2.如权利要求1所述的系统,其特征在于,
所述前端设备还包括:
迁移恢复时间预算模块,用于执行以下操作:从所述后端服务器得到ip-osd存储状态列表和osd之间的传输速率,并将所述ip-osd存储状态列表展示在前端页面;根据运维人员输入的故障节点IP或磁盘ID从ip-osd存储状态列表确定待迁移的数据量;根据所述待迁移的数据量和所述传输速率计算数据迁移时间;将计算得到的数据迁移时间展示在前端页面;
所述后端服务器还包括:
传输速率计算模块,用于执行以下操作:在接收到所述前端设备获取恢复时间的请求后,从所述对象存储系统获取osd列表及集群状态信息;处理据所述osd列表及集群状态信息得到ip-osd存储状态列表;根据磁盘IO性能和集群配置计算osd之间的传输速率;将所述ip-osd存储状态列表和所述传输率返回给所述前端设备。
3.如权利要求2所述的系统,其特征在于,
所述前端设备还包括:
扩缩容影响预判模块,用于执行以下操作:从所述后端服务器获取crushmap及osd-pg列表;将所述crushmap及osd-pg列表展示在前端页面;将运维人员输入的需要扩缩容的节点信息及磁盘信息发送至所述后端服务器;获取所述后端服务器返回的根据需要扩缩容的节点信息及磁盘信息计算得到的新的pg分布;
所述后端服务器还包括:
扩缩容影响计算模块,用于执行以下操作:在接收到所述前端服务器发送的预判扩缩容影响的请求后,从所述对象存储系统获取集群的crushmap及pg列表;处理所述crushmap及pg列表得到crushmap及osd-pg列表;将得到的crushmap及osd-pg列表返回给所述前端设备;根据所述前端设备发送的需要扩缩容的节点信息及磁盘信息,采用crush算法计算新的pg分布;将新的pg分布返回至所述前端设备。
4.如权利要求1至3任意一项所述的系统,其特征在于
所述前端设备还包括:
osd状态实时展示模块,用于向所述后端服务器发送获取osd状态的请求并将所述后端服务器响应所述请求而返回的集群节点的osd状态信息以预定形式展现在前端页面上;
所述后端服务器还包括:
osd状态处理模块,用于在接收到所述前端设备发送的获osd状态的请求后向所述Ceph的对象存储系统获取集群节点的osd状态信息,并将获取的集群节点的osd状态信息返回给所述前端设备。
5.如权利要求4所述的系统,其特征在于,所述预定形式包括树形结构,并且用不同的颜色显示集群节点的osd的不同状态。
6.一种用于对基于Ceph的对象存储系统进行故障分析的系统,其特征在于,所述系统包括前端设备和后端服务器;
其中,所述前端设备包括显示器、第一存储器和第一处理器,所述第一存储器上存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器获取ip-osd列表、osd-pg列表、ip-pg列表,并将ip-osd列表通过所述显示器展现在前端页面;根据运维人员输入的两个故障节点IP或磁盘ID从ip-pg列表或osd-pg列表查询受影响的pg,并将受影响的pg通过所述显示器显示在前端页面;
其中,所述后端服务器包括第二存储器和第二处理器,所述第二存储器上存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端设备获取osd、pg列表的请求后,向所述对象存储系统获取集群的osd、pg列表;处理所述osd、pg列表得到ip-osd列表、osd-pg列表、ip-pg列表,并将所述ip-osd列表、osd-pg列表、ip-pg列表返回给所述前端设备。
7.如权利要求6所述的系统,其特征在于,
在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器得到ip-osd存储状态列表和osd之间的传输速率,并将所述ip-osd存储状态列表通过所述显示器展示在前端页面;根据运维人员输入的故障节点IP或磁盘ID从ip-osd存储状态列表确定待迁移的数据量;根据所述待迁移的数据量和所述传输速率计算数据迁移时间;将计算得到的数据迁移时间通过所述显示器展示在前端页面;
在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端设备获取恢复时间的请求后,从所述对象存储系统获取osd列表及集群状态信息;处理据所述osd列表及集群状态信息得到ip-osd存储状态列表;根据磁盘IO性能和集群配置计算osd之间的传输速率;将所述ip-osd存储状态列表和所述传输率返回给所述前端设备。
8.如权利要求7所述的系统,其特征在于,
在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
从所述后端服务器获取crushmap及osd-pg列表;将所述crushmap及osd-pg列表展示在前端页面;将运维人员输入的需要扩缩容的节点信息及磁盘信息发送至所述后端服务器;获取所述后端服务器返回的根据需要扩缩容的节点信息及磁盘信息计算得到的新的pg分布;
在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
在接收到所述前端服务器发送的预判扩缩容影响的请求后,从所述对象存储系统获取集群的crushmap及pg列表;处理所述crushmap及pg列表得到crushmap及osd-pg列表;将得到的crushmap及osd-pg列表返回给所述前端设备;根据所述前端设备发送的需要扩缩容的节点信息及磁盘信息,采用crush算法计算新的pg分布;将新的pg分布返回至所述前端设备。
9.如权利要求6至8任意一项所述的系统,其特征在于
在所述前端设备中,所述第一存储器上还存储有被第一处理器执行以进行下述操作的计算机可读指令:
向所述后端服务器发送获取osd状态的请求,并将所述后端服务器响应所述请求而返回的集群节点的osd状态信息以预定形式通过所述显示器展现在前端页面上;
在所述后端服务器中,所述第二存储器上还存储有被第二处理器执行以进行下述操作的计算机可读指令:
osd状态处理模块,用于在接收到所述前端设备发送的获osd状态的请求后向所述Ceph的对象存储系统获取集群节点的osd状态信息,并将获取的集群节点的osd状态信息返回给所述前端设备。
10.如权利要求9所述的系统,其特征在于,所述预定形式包括树形结构,并且用不同的颜色显示集群节点的osd的不同状态。
11.一种计算机可读存储介质,其上存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时进行权利要求6-10中任意一项所述的系统中所述前端设备所执行的操作或所述后端服务器所执行的操作。
CN201911410092.XA 2019-12-31 2019-12-31 用于对基于Ceph的对象存储系统进行故障分析的系统和介质 Active CN111240894B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911410092.XA CN111240894B (zh) 2019-12-31 2019-12-31 用于对基于Ceph的对象存储系统进行故障分析的系统和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911410092.XA CN111240894B (zh) 2019-12-31 2019-12-31 用于对基于Ceph的对象存储系统进行故障分析的系统和介质

Publications (2)

Publication Number Publication Date
CN111240894A true CN111240894A (zh) 2020-06-05
CN111240894B CN111240894B (zh) 2023-11-14

Family

ID=70877637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911410092.XA Active CN111240894B (zh) 2019-12-31 2019-12-31 用于对基于Ceph的对象存储系统进行故障分析的系统和介质

Country Status (1)

Country Link
CN (1) CN111240894B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106878A1 (en) * 2004-11-17 2006-05-18 Hidehisa Shitomi System and method for creating an object-level snapshot in a storage system
CN107832164A (zh) * 2017-11-20 2018-03-23 郑州云海信息技术有限公司 一种基于Ceph的故障硬盘处理的方法及装置
CN109144789A (zh) * 2018-09-10 2019-01-04 网宿科技股份有限公司 一种重启osd的方法、装置及系统
CN109213637A (zh) * 2018-11-09 2019-01-15 浪潮电子信息产业股份有限公司 分布式文件系统集群节点的数据恢复方法、装置及介质
CN109284220A (zh) * 2018-10-12 2019-01-29 深信服科技股份有限公司 集群故障恢复时长估算方法、装置、设备及存储介质
CN109460325A (zh) * 2018-10-19 2019-03-12 南京机敏软件科技有限公司 Ceph集群磁盘故障恢复方法及计算机、恢复系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106878A1 (en) * 2004-11-17 2006-05-18 Hidehisa Shitomi System and method for creating an object-level snapshot in a storage system
CN107832164A (zh) * 2017-11-20 2018-03-23 郑州云海信息技术有限公司 一种基于Ceph的故障硬盘处理的方法及装置
CN109144789A (zh) * 2018-09-10 2019-01-04 网宿科技股份有限公司 一种重启osd的方法、装置及系统
CN109284220A (zh) * 2018-10-12 2019-01-29 深信服科技股份有限公司 集群故障恢复时长估算方法、装置、设备及存储介质
CN109460325A (zh) * 2018-10-19 2019-03-12 南京机敏软件科技有限公司 Ceph集群磁盘故障恢复方法及计算机、恢复系统
CN109213637A (zh) * 2018-11-09 2019-01-15 浪潮电子信息产业股份有限公司 分布式文件系统集群节点的数据恢复方法、装置及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
卢魏旭: "高可用云服务的研究与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Also Published As

Publication number Publication date
CN111240894B (zh) 2023-11-14

Similar Documents

Publication Publication Date Title
JP5458308B2 (ja) 仮想計算機システム、仮想計算機システムの監視方法及びネットワーク装置
US9021077B2 (en) Management computer and method for root cause analysis
CN108696581B (zh) 分布式信息的缓存方法、装置、计算机设备以及存储介质
US10013271B2 (en) Management system and method for controlling management system
US20110225582A1 (en) Snapshot management method, snapshot management apparatus, and computer-readable, non-transitory medium
US20120311128A1 (en) Performance testing in a cloud environment
US20160306710A1 (en) Method and system for recovering virtual network
US20160261459A1 (en) Package dependency maps for distributed computing
CN107453932B (zh) 一种分布式存储系统管理方法及其装置
CN111158608B (zh) 硬盘故障处理方法、装置及分布式系统
US9195535B2 (en) Hotspot identification
CN103973516A (zh) 一种数据处理系统中实现监控功能的方法及装置
WO2013171865A1 (ja) 管理方法及び管理システム
US9864964B2 (en) Job monitoring support method and information processing apparatus
US11556120B2 (en) Systems and methods for monitoring performance of a building management system via log streams
CN114978923B (zh) 故障演练方法、装置和系统
CN111240894A (zh) 用于对基于Ceph的对象存储系统进行故障分析的系统和介质
CN112860496A (zh) 故障修复操作推荐方法、装置及存储介质
CN105511952A (zh) 基于云计算平台的资源自迁移方法及系统
EP3306471B1 (en) Automatic server cluster discovery
US20150120793A1 (en) Managing device of distributed file system, distributed computing system therewith, and operating method of distributed file system
CN103457771A (zh) 一种ha的虚拟机集群的管理方法和设备
CN109634848B (zh) 一种银行大型测试环境管理方法及系统
JP4909830B2 (ja) サーバアプリケーション監視システム及び監視方法
JP6335153B2 (ja) コンピュータ装置、制御方法およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant