CN115080532B - Ceph系统的管理方法及基于ceph系统的终端 - Google Patents

Ceph系统的管理方法及基于ceph系统的终端 Download PDF

Info

Publication number
CN115080532B
CN115080532B CN202210860358.6A CN202210860358A CN115080532B CN 115080532 B CN115080532 B CN 115080532B CN 202210860358 A CN202210860358 A CN 202210860358A CN 115080532 B CN115080532 B CN 115080532B
Authority
CN
China
Prior art keywords
value
capacity
pool
osd
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210860358.6A
Other languages
English (en)
Other versions
CN115080532A (zh
Inventor
潘军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Bank Co Ltd
Original Assignee
Ping An Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Bank Co Ltd filed Critical Ping An Bank Co Ltd
Priority to CN202210860358.6A priority Critical patent/CN115080532B/zh
Publication of CN115080532A publication Critical patent/CN115080532A/zh
Application granted granted Critical
Publication of CN115080532B publication Critical patent/CN115080532B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/1727Details of free space management performed by the file system

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Debugging And Monitoring (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种CEPH系统的管理方法,包括:获取节点、pool、OSD和PG之间的拓扑关系;获取每一OSD的第一使用容量和每一节点的第二使用容量;根据拓扑关系和PG信息计算与每一pool相对应的第一值;根据拓扑关系和第一值计算与每一pool相对应的第二值;根据第一值、第二值、第一使用容量以及第二使用容量计算若干OSD的第一系统占用容量和若干节点的第二系统占用容量;展示第一使用容量、第一值、第二值、第一系统占用容量以及第二系统占用容量;当接收到修改指令时,对pool相对应的PG的数量或者OSD的权重值进行修改。本发明技术方案能够快速有效分析集群的容量分布以辅助管理员及时对集群的容量进行管理。

Description

CEPH系统的管理方法及基于CEPH系统的终端
技术领域
本发明涉及计算机技术领域,尤其涉及一种CEPH系统的管理方法及基于CEPH系统的终端。
背景技术
管理员通过现有的分布式文件(CEPH)系统只可知道集群的总容量及使用容量、存储池(pool)的使用容量和可用容量、对象存储设备(Object Storage Device,OSD)的使用容量等。在集群容量使用率不高的情况下,OSD容量使用不均衡的问题、集群存储有效数据比率不高的问题常被忽略。
当集群使用容量达到阈值且某些OSD使用容量相对较高,即OSD容量的使用分布呈现明显不均衡时,集群的总可用容量将会受到影响。此时,管理员会根据经验进行分析,并根据分析结果调整OSD的权重或者pool的放置组(Placement Group,PG)数,直到容量分布问题得到解决。
CEPH系统使用过程中经常会出现存储的有效数据量与预期的可存储数据量差别很大,管理员只能通过扩容集群,或新建新的集群来提升存储服务能力,导致存储硬件成本的增加。
因此,管理员依赖经验积累不能快速有效地分析导致OSD容量使用不均衡、集群存储有效数据比率不高的主要原因。
发明内容
本发明提供了一种CEPH系统的管理方法及基于CEPH系统的终端,快速有效分析集群的容量分布以辅助管理员及时对集群的容量进行管理,以达到降本增效的目的。
第一方面,本发明实施例提供一种CEPH系统的管理方法,所述CEPH系统包括若干节点、若干pool、若干OSD以及若干PG,所述CEPH系统的管理方法包括:
获取所述节点、所述pool、所述OSD和所述PG之间的拓扑关系;
获取每一所述OSD的第一使用容量和每一所述节点的第二使用容量;
获取PG信息,其中,所述PG信息包括与每一所述PG相对应的第一PG信息以及与每一所述pool相对应的第二PG信息;
根据所述拓扑关系和所述PG信息分别计算每一所述pool相对应的所有OSD中与所述pool相对应的对象的第一值;
根据所述拓扑关系和所述PG信息分别计算每一所述pool相对应的所有节点中与所述pool相对应的对象的第二值;
分别累加与所有pool相对应的第一值、第二值以得到第三值和第四值;
根据所述第三值、所述第四值、所述第一使用容量以及所述第二使用容量分别计算所述若干OSD的第一系统占用容量和所述若干节点的第二系统占用容量;
展示所述第一使用容量、所述第一值、所述第二值、所述第一系统占用容量以及所述第二系统占用容量;
判断是否接收到修改指令;以及
当接收到所述修改指令时,根据所述修改指令对所述pool相对应的PG的数量或者所述OSD的权重值进行修改。
第二方面,本发明实施例提供一种基于CEPH系统的终端,所述基于CEPH系统的终端包括:
存储器,用于存储程序指令;以及
处理器,用于执行所述程序指令以实现如上所述的CEPH系统的管理方法。
上述CEPH系统的管理方法及基于CEPH系统的终端,通过对获取到的拓扑关系、第一使用容量、PG信息等进行分析计算,得到第二使用容量、第一值、第二值、第一系统占用容量、第二系统占用容量,并通过直观、有效的形式,如数值、颜色、图表等展示计算结果,能够快速地计算CEPH系统的容量分布情况,以辅助管理员快速地分析容量分布不均衡的原因,并及时对CEPH系统的容量分布进行管理,从而解决容量分布不均衡的问题,提升容量管理效率,以达到降本增效的目的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例提供的CEPH系统的管理方法的流程图。
图2为本发明实施例提供的CEPH系统的管理方法的第一子流程图。
图3为本发明实施例提供的CEPH系统的管理方法的第二子流程图。
图4为本发明实施例提供的CEPH系统的管理方法的第三子流程图。
图5为本发明实施例提供的CEPH系统的管理方法的第四子流程图。
图6为图1所示的CEPH系统的内部结构图。
图7为图1所示的第一分层柱状图。
图8为图1所示的第二分层柱状图。
图9为本发明实施例提供的终端的内部结构图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的规划对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,换句话说,描述的实施例根据除了这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,还可以包含其他内容,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于只清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者多个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
请结合参看图1和图6,图1为本发明实施例提供的CEPH系统的管理方法的流程图,图6为本发明实施例提供的CEPH系统的内部结构示意图。CEPH系统为分布式文件系统,也可以称为CEPH集群。在本实施例中,CEPH系统100包括若干节点10、若干pool20、若干OSD(Object Storage Device)30以及若干PG(Placement Group)40。以图6所示的CEPH系统100为例,CEPH系统100包括两个节点10:node A和node B、两个pool20:pool A和pool B、三个OSD30:OSD A和OSD B和OSD C、四个PG40:PG A和PG B和PG C和PG D。下文将以此为例进行详细描述。可以理解的是,CEPH系统的管理方法可以应用于任何CEPH系统100,并不局限于此。CEPH系统的管理方法具体包括如下步骤。
步骤S102,获取节点、pool、OSD和PG之间的拓扑关系。由于pool20与PG40之间存在映射关系、PG40与OSD30之间存在映射关系、OSD30与节点10之间存在映射关系,因此,可以通过pool20与PG40、PG40与OSD30以及OSD30与节点10之间的映射关系构建节点10、pool20、OSD30和PG40之间的拓扑关系。在本实施例中,获取CEPH系统100的映射关系,并分别获取节点10的第一ID信息、pool20的第二ID信息、OSD30的第三ID信息以及PG40的第四ID信息。根据第一ID信息、第二ID信息、第三ID信息、第四ID信息以及映射关系得到节点10、pool20、OSD30和PG40之间的拓扑关系。其中,CEPH系统100的映射关系包括但不限于pool20与PG40、PG40与OSD30以及OSD30与节点10之间的映射关系。第一ID信息包括但不限于若干节点10的ID,第二ID信息包括但不限于若干pool20的ID,第三ID信息包括但不限于OSD30的ID,第四ID信息包括但不限于PG40的ID。节点10、pool20、OSD30和PG40之间的拓扑关系包括但不限于pool20与PG40、pool20与OSD30、pool20与节点10、PG40与OSD30、PG40与节点10、OSD30与节点10之间的映射关系。
举例来说,pool A与PG A、PG B之间存在映射关系;PG A映射至OSD A和OSD B,PGB映射至OSD A和OSD B;OSD A和OSD B均映射至node A。第一ID信息包括node A的ID,第二ID信息包括pool A的ID,第三ID信息包括OSD A和OSD B的ID,第四ID信息包括PG A和PG B的ID。通过pool A与PG A和PG B之间的映射关系、PG A和PG B与OSD A和OSD B之间的映射关系、第二ID信息、第三ID信息、第四ID信息能够得到pool A与OSD A和OSD B之间的映射关系;通过PG A和PG B与OSD A和OSD B之间的映射关系、OSD A和OSD B与node A之间的映射关系、第一ID信息、第三ID信息、第四ID信息能够得到node A与PG A和PG B之间的映射关系;pool A与PG A和PG B之间的映射关系、PG A和PG B与OSD A和OSD B之间的映射关系、OSD A和OSD B与node A之间的映射关系、第一ID信息、第二ID信息、第三ID信息、第四ID信息能够得到pool A与node A之间的映射关系。
步骤S104,获取每一OSD的第一使用容量和每一节点的第二使用容量。其中,每一OSD30的使用容量可以被直接获取,每一节点10的使用容量需要根据拓扑关系和第一使用容量进行计算得到。在本实施例中,根据拓扑关系和第一使用容量计算每一节点10的第二使用容量。具体地,根据第一公式计算节点10的第二使用容量。第一公式为:
Figure 838770DEST_PATH_IMAGE001
。其中,
Figure 694731DEST_PATH_IMAGE002
表示第二使用容量,
Figure 658007DEST_PATH_IMAGE003
表示第一使用容量。当节点10与OSD30之间存在映射关系时,
Figure 283024DEST_PATH_IMAGE004
为1;当节点10与OSD30之间不存在映射关系时,
Figure 814499DEST_PATH_IMAGE004
为0。举例来说,node A的第二使用容量等于OSD A的第一使用容量和OSD B的第一使用容量之和。
步骤S106,获取PG信息。其中,PG信息包括与每一PG40相对应的第一PG信息以及与每一pool20相对应的第二PG信息。在本实施例中,数据以对象(obj)的形式存储于CEPH系统100,并映射至PG40。其中,每一PG40包括若干对象。第一PG信息包括但不限于PG40中每一对象的ID、每一对象的第五值。第五值用于表示对象的大小。第二PG信息包括但不限于每一pool20所映射的PG40的数量和ID、副本数。副本数用于表示每一PG40所映射的OSD30的数量。
步骤S108,根据拓扑关系和PG信息分别计算每一pool相对应的所有OSD中与pool相对应的对象的第一值。在本实施例中,一个第一值为一个pool20所映射的所有OSD30中,与该pool20相对应的所有对象的大小之和。可以理解的是,第一值的数量与pool20的数量相同。举例来说,与pool A相对应的第一值等于OSD A中与pool A相对应的所有对象的大小和OSD B中与pool B相对应的所有对象的大小之和。根据拓扑关系和PG信息分别计算每一pool相对应的所有OSD中与pool相对应的对象的第一值的具体过程将在下文详细描述。
步骤S110,根据拓扑关系和PG信息分别计算每一pool相对应的所有节点中与pool相对应的对象的第二值。在本实施例中,一个第二值为一个pool20所映射的所有节点10中,与该pool20相对应的所有对象的大小之和。可以理解的是,第二值的数量与pool20的数量相同。举例来说,与pool A相对应的第二值等于node A中与pool A相对应的所有对象的大小之和。根据拓扑关系和PG信息分别计算每一pool相对应的所有节点中与pool相对应的对象的第二值的具体过程将在下文详细描述。
步骤S112,分别累加与所有pool相对应的第一值、第二值以得到第三值和第四值。具体地,累加与所有pool20相对应的第一值作为第三值,累加与所有pool20相对应的第二值作为第四值。可以理解的是,第三值表示CEPH系统100中所有OSD30中对象的大小,第四值表示CEPH系统100中所有节点10中对象的大小。
步骤S114,根据第三值、第四值、第一使用容量以及第二使用容量分别计算若干OSD的第一系统占用容量和若干节点的第二系统占用容量。可以理解的是,OSD30和节点10中,除相对应的对象会占用容量之外,CEPH系统100中的其它内容也会占用一定的容量。则,第一系统占用容量为CEPH系统100中的其它内容在所有OSD30中占用的容量,第二系统占用容量为CEPH系统100中的其它内容在所有节点10中占用的容量。
在本实施例中,根据第三值、第四值、第一使用容量以及第二使用容量分别计算若干OSD的第一系统占用容量和若干节点的第二系统占用容量具体包括:计算第一使用容量和第三值的差值得到第一系统占用容量,计算第二使用容量和第四值的差值得到第二系统占用容量。具体地,根据第二公式计算第一系统占用容量。第二公式为:
Figure 13881DEST_PATH_IMAGE005
。其中,
Figure 921794DEST_PATH_IMAGE006
表示第一系统占用容量,
Figure 401317DEST_PATH_IMAGE007
表示第一使用容量,
Figure 228327DEST_PATH_IMAGE008
表示第三值。根据第三公式计算第二系统占用容量。第三公式为:
Figure 58880DEST_PATH_IMAGE009
。其中,
Figure 239326DEST_PATH_IMAGE010
表示第二系统占用容量,
Figure 697989DEST_PATH_IMAGE011
表示第二使用容量,
Figure 571267DEST_PATH_IMAGE012
表示第四值。
步骤S116,展示第一使用容量、第一值、第二值、第一系统占用容量以及第二系统占用容量。其中,第一使用容量、第一值、第二值、第一系统占用容量以及第二系统占用容量可以通过颜色、数值、图表等形式进行展示。在本实施例中,采用颜色的形式展示第一使用容量,采用分层柱状图的形式展示第一值和第二值,采用数值的形式展示第一系统占用容量和第二系统占用容量。在一些可行的实施例中,第一使用容量、第一值、第二值、第一系统占用容量以及第二系统占用容量的展示形式可以根据实际情况进行设置,在此不做限定。
采用分层柱状图的形式展示第一值和第二值具体包括:根据每一pool20相对应的所有OSD30的第一值绘制第一分层柱状图,根据每一pool20相对应的所有节点10的第二值绘制第二分层柱状图。分别展示第一分层柱状图和第二分层柱状图。其中,第一分层柱状图用于表示每一OSD30在不同pool20下的容量使用情况,第一分层柱状图包括若干与OSD30一一对应的柱,每一柱包括若干与pool20一一对应的层。柱中层越高,表示OSD30在与该柱相对应的pool20中的使用容量越高;柱中层越低,表示OSD30在与该柱相对应的pool20中的使用容量越低。第二分层柱状图用于表示每一节点10在不同poo20下的容量使用情况,第二分层柱状图包括若干与节点10一一对应的柱,每一柱包括若干与pool20一一对应的层。柱中层越高,表示节点10在与该柱相对应的pool20中的使用容量越高;柱中层越低,表示节点10在与该柱相对应的pool20中的使用容量越低。以图7所示的第一分层柱状图为例,柱的高度表示相对应的OSD30的容量。所有柱的高度均相同,则表示所有OSD30的容量均相同。每一柱中最上面一层表示OSD30中未使用的容量。以图8所示的第二分层柱状图为例,柱的高度表示相对应的节点10的容量。每一柱中最上面一层表示节点10中未使用的容量。如何展示第一使用容量的具体过程将在下文详细描述。
步骤S118,判断是否接收到修改指令。CEPH系统100的管理员可根据展示的第一使用容量、第一值、第二值、第一系统占用容量以及第二系统占用容量判断是否需要对pool20相对应的PG40的数量或者OSD30的权重值进行修改。当需要对pool20相对应的PG40的数量或者OSD30的权重值进行修改时,管理员可通过外接设备输入修改指令。其中,外接设备包括但不限于鼠标、键盘、触控屏等。
在一些可行的实施例中,可以提供pool20列表筛选项给管理员进行选择,以查看不同的pool20。管理员选择其中一个pool20后,显示与该pool20相关的节点10、OSD30、PG40的信息。信息包括但不限于第一使用容量、第二使用容量、第一值、第二值、第一系统占用容量、第二系统占用容量等。
步骤S120,当接收到修改指令时,根据修改指令对pool相对应的PG的数量或者OSD的权重值进行修改。
在本实施例中,对第一使用容量、第二使用容量、PG信息等CEPH系统100的信息采集可以设置固定时间点进行,采集之后进行分析计算,并实时展示相应的结果。在一些可行的实施例中,可以设置固定频率对CEPH系统的信息进行采集,并实时展示相应的结果,在此不做限定。
上述实施例中,通过对获取到的拓扑关系、第一使用容量、PG信息等进行分析计算,得到第二使用容量、第一值、第二值、第一系统占用容量、第二系统占用容量,并通过直观、有效的形式,如数值、颜色、图表等展示计算结果,能够快速地计算CEPH系统的容量分布情况,以辅助管理员快速地分析容量分布不均衡的原因,并及时对CEPH系统的容量分布进行管理,从而解决容量分布不均衡的问题,提升容量管理效率,以达到降本增效的目的。此外,采用分层柱状图的形式直观展示每一节点和OSD在不同pool下的容量使用情况,使管理员能够非常直观、高效地知道节点和OSD的容量使用情况,有助于管理员对分布不均衡问题的解决进行策略分析。
请结合参看图2,其为本发明实施例提供的CEPH系统的管理方法的第一子流程图。步骤S108具体包括如下步骤。
步骤S202,根据拓扑关系判断PG中的对象所属的OSD是否与PG所属的pool相对应。根据拓扑关系对所有PG40中的每一对象进行判断,判断哪些对象所属的OSD30与相应PG所属的pool20相对应。可以理解的是,与同一OSD30相对应的对象不一定与同一pool20相对应。举例来说,PG A中的部分对象与OSD B相对应,PG C中的部分对象也与OSD B相对应。而只有PG A中的对象与pool A相对应,PG C中的对象是与pool B相对应的。因此,需要根据拓扑关系对PG40中的对象进行判断。
步骤S204,当PG中的对象所属的OSD与PG所属的pool相对应时,累加所有对象的第五值以得到第一值。可以理解的是,累加与同一pool20相对应的所有对象的第五值。在本实施例中,根据第四公式计算第一值。具体地,第四公式为:
Figure 889116DEST_PATH_IMAGE013
。其中,
Figure 732307DEST_PATH_IMAGE014
表示第一值,
Figure 452001DEST_PATH_IMAGE015
表示第五值。当PG40中的对象所属的OSD30与PG40所属的pool20相对应时,
Figure 496181DEST_PATH_IMAGE016
为1;当PG40中的对象所属的OSD30与PG40所属的pool20不对应时,
Figure 160380DEST_PATH_IMAGE016
为0。
请结合参看图3,其为本发明实施例提供的CEPH系统的管理方法的第二子流程图。步骤S110具体包括如下步骤。
步骤S302,根据拓扑关系判断PG中的对象所属的节点是否与PG所属的pool相对应。根据拓扑关系对所有PG40中的每一对象进行判断,判断哪些对象所属的节点10与相应PG所属的pool20相对应。可以理解的是,与同一节点10相对应的对象不一定与同一pool20相对应。举例来说,PG A中的对象与nodeA相对应,PG C中的部分对象也与node A相对应。而只有PG A中的对象与pool A相对应,PG C中的对象是与pool B相对应的。因此,需要根据拓扑关系对PG40中的对象进行判断。
步骤S304,当PG中的对象所属的节点与PG所属的pool相对应时,累加所有对象的第五值以得到第二值。可以理解的是,累加与同一pool20相对应的所有对象的第五值。其中,由于OSD30与节点10之间存在映射关系,因此,第二值可以根据拓扑关系和第一值进行计算。在本实施例中,根据第五公式计算第二值。具体地,第五公式为:
Figure 682628DEST_PATH_IMAGE017
。其中,
Figure 381463DEST_PATH_IMAGE018
表示第二值,
Figure 596544DEST_PATH_IMAGE019
表示第一值。当PG40中的对象所对应的pool20、OSD30、节点10均存在映射关系时,
Figure 357826DEST_PATH_IMAGE020
为1;当PG40中的对象所对应的pool20、OSD30、节点10中的任意两者不存在映射关系时,
Figure 73978DEST_PATH_IMAGE020
为0。
请结合参看图4,其为本发明实施例提供的CEPH系统的管理方法的第三子流程图。步骤S116中,展示第一使用容量具体包括如下步骤。
步骤S402,获取若干OSD的容量最大值和容量最小值。分别获取每一OSD30的容量最大值和容量最小值。可以理解的是,每一OSD30对应一个容量最大值和一个容量最小值。
步骤S404,计算容量最大值和容量最小值之差作为容量差值。分别计算每一OSD30的容量最大值和容量最小值的差作为容量差值,可以理解的是,每一OSD30对应一个容量差值。
步骤S406,将容量差值均匀分成若干份额。将所有OSD30的容量差值都均匀分成相同的份额。在本实施例中,份额数为8。在一些可行的实施例中,份额数可以根据实际情况进行设置,在此不做限定。
步骤S408,根据第一使用容量、容量最小值以及份额计算比值。在本实施例中,计算第一使用容量和容量最小值之间的差值,再计算差值与份额之间的比值,从而得到第一使用容量的占比。
步骤S410,将比值映射至RGB值。可以理解的是,计算得到的比值可能为小数。为了简化比值与RGB值之间的映射关系,采用进一法将比值变换成整数,并将化整之后的比值映射至RGB值。在本实施例中,选取同一色系等梯度变化的若干RGB值与比值进行映射。其中,RGB值的数量为份额数加1。优选地,比值越大,所对应的RGB值越大;比值越小,所对应的RGB值越小。
步骤S412,展示RGB值。在本实施例中,以颜色的方形展示相应的RGB值。
上述实施例中,根据每一OSD的容量最大值和容量最小值为每一OSD设置不同的等级标准,所有OSD所对应的等级标准相同,同一等级标准对应的颜色相同,采用不同等级的颜色来展示OSD的第一使用容量,能够更加直观地展示OSD的使用情况。管理员能够根据颜色的深浅快速找到第一使用容量最大或最小的OSD,从而对分布不均衡问题的解决进行决策。
请结合参看图5,其为本发明实施例提供的CEPH系统的管理方法的第五子流程图。CEPH系统的管理方法还包括如下步骤。
步骤S502,获取CEPH系统的第三使用容量。其中,CEPH系统100的使用容量可以被直接获取。
步骤S504,根据第四值和第三使用容量计算容量损耗。在本实施例中,计算第三使用容量和第四值的差值作为容量损耗。其中,容量损耗用于表示CEPH系统100存储对象所产生的损耗。
步骤S506,展示容量损耗。在本实施例中,采用数值的形式展示容量损耗。在一些可行的实施例中,可以采用颜色、图标等形式展示容量损耗,在此不做限定。
上述实施例中,根据第四值和第三使用容量计算CEPH系统的容量损耗,展示容量损耗以辅助管理员更好地对分布不均衡问题的解决进行策略分析。
请结合参看图9,其为本发明实施例提供的终端的内部结构示意图。基于CEPH系统的终端200包括存储器80和处理器90。存储器80用于存储程序指令,处理器90用于执行程序指令以实现上述CEPH系统的管理方法。在本实施例中,终端200设有展示窗口(图未示),用于展示容量信息。容量信息包括但不限于第一使用容量、第一值、第二值、第一系统占用容量、第二系统占用容量以及容量损耗等。
其中,处理器90在一些实施例中可以是一中央处理器(Central ProcessingUnit,CPU)、控制器、微控制器、微处理器或其它数据处理芯片,用于运行存储器80中存储的程序指令。
存储器80至少包括一种类型的可读存储介质,该可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器80在一些实施例中可以是计算机设备的内部存储单元,例如计算机设备的硬盘。存储器80在另一些实施例中也可以是计算机设备的外部存储设备,例如计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(FlashCard)等。进一步地,存储器80还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器80不仅可以用于存储安装于计算机设备的应用软件及各类数据,例如实现CEPH系统的管理方法的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
以上所列举的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属于本发明所涵盖的范围。

Claims (10)

1.一种CEPH系统的管理方法,其特征在于,所述CEPH系统包括若干节点、若干pool、若干OSD以及若干PG,所述CEPH系统的管理方法包括:
获取所述节点、所述pool、所述OSD和所述PG之间的拓扑关系,其中,所述拓扑关系由所述节点的ID信息、所述pool的ID信息、所述OSD的ID信息以及所述PG的ID信息和所述节点、所述pool、所述OSD以及所述PG之间的映射关系构建形成;
获取每一所述OSD的第一使用容量和每一所述节点的第二使用容量;
获取PG信息,其中,所述PG信息包括与每一所述PG相对应的第一PG信息以及与每一所述pool相对应的第二PG信息;
根据所述拓扑关系和所述PG信息分别计算每一所述pool相对应的所有OSD中与所述pool相对应的对象的第一值,其中,所述对象为数据的存储形式,所述第一值为所述pool相对应的所有OSD中与所述pool相对应的对象的大小之和,所述第一值由公式
Figure 702942DEST_PATH_IMAGE001
计算得到,
Figure 88924DEST_PATH_IMAGE002
表示所述第一值,
Figure 727716DEST_PATH_IMAGE003
表示所述对象的大小,
Figure 857346DEST_PATH_IMAGE004
表示相关系数,由所述pool、所述OSD以及所述PG之间的映射关系决定;
根据所述拓扑关系和所述PG信息分别计算每一所述pool相对应的所有节点中与所述pool相对应的对象的第二值,其中,所述第二值为所述pool相对应的所有节点中与所述pool相对应的对象的大小之和,所述第二值由公式
Figure 140560DEST_PATH_IMAGE005
计算得到,
Figure 963022DEST_PATH_IMAGE006
表示所述第二值,
Figure 89110DEST_PATH_IMAGE007
表示所述第一值,
Figure 756852DEST_PATH_IMAGE008
表示相关系数,由所述节点、所述pool、所述OSD以及所述PG之间的映射关系决定;
分别累加与所有pool相对应的第一值、第二值以得到第三值和第四值,其中,所述第三值为所述CEPH系统中所有OSD中对象的大小之和,所述第四值为所述CEPH系统中所有节点中对象的大小之和;
根据所述第三值、所述第四值、所述第一使用容量以及所述第二使用容量分别计算所述若干OSD的第一系统占用容量和所述若干节点的第二系统占用容量;
展示所述第一使用容量、所述第一值、所述第二值、所述第一系统占用容量以及所述第二系统占用容量;
判断是否接收到修改指令;以及
当接收到所述修改指令时,根据所述修改指令对所述pool相对应的PG的数量或者所述OSD的权重值进行修改。
2.如权利要求1所述的CEPH系统的管理方法,其特征在于,所述第一PG信息包括所述PG中对象的第五值,根据所述拓扑关系和所述PG信息分别计算每一所述pool相对应的所有OSD中与所述pool相对应的对象的第一值具体包括:
根据所述拓扑关系判断所述PG中的对象所属的OSD是否与所述PG所属的pool相对应;以及
当所述PG中的对象所属的OSD与所述PG所属的pool相对应时,累加所有对象的第五值以得到所述第一值。
3.如权利要求1所述的CEPH系统的管理方法,其特征在于,所述第一PG信息包括所述PG中对象的第五值,根据所述拓扑关系和PG信息分别计算每一所述pool相对应的所有节点中与所述pool相对应的对象的第二值具体包括:
根据所述拓扑关系判断所述PG中的对象所属的节点是否与所述PG所属的pool相对应;以及
当所述PG中的对象所属的节点与所述PG所属的pool相对应时,累加所有对象的第五值以得到所述第二值。
4.如权利要求1所述的CEPH系统的管理方法,其特征在于,根据所述第三值、所述第四值、所述第一使用容量以及所述第二使用容量分别计算所述若干OSD的第一系统占用容量和所述若干节点的第二系统占用容量具体包括:
计算所述第一使用容量和所述第三值的差值得到所述第一系统占用容量;以及
计算所述第二使用容量和所述第四值的差值得到所述第二系统占用容量。
5.如权利要求1所述的CEPH系统的管理方法,其特征在于,所述CEPH系统的管理方法还包括:
获取所述CEPH系统的第三使用容量;
根据所述第四值和所述第三使用容量计算容量损耗;以及
展示所述容量损耗。
6.如权利要求1所述的CEPH系统的管理方法,其特征在于,展示所述第一使用容量具体包括:
获取所述若干OSD的容量最大值和容量最小值;
计算所述容量最大值和所述容量最小值之差作为容量差值;
将所述容量差值均匀分成若干份额;
根据所述第一使用容量、所述容量最小值以及所述份额计算比值;
将所述比值映射至RGB值;以及
展示所述RGB值。
7.如权利要求1所述的CEPH系统的管理方法,其特征在于,展示所述第一值、所述第二值具体包括:
根据每一所述pool相对应的所有OSD的第一值绘制第一分层柱状图;
根据每一所述pool相对应的所有节点的第二值绘制第二分层柱状图;以及
展示所述第一分层柱状图和所述第二分层柱状图。
8.如权利要求1所述的CEPH系统的管理方法,其特征在于,获取每一所述节点的第二使用容量具体包括:
根据所述拓扑关系和所述第一使用容量计算每一所述节点的第二使用容量。
9.如权利要求1所述的CEPH系统的管理方法,其特征在于,获取所述节点、所述pool、所述OSD和所述PG之间的拓扑关系具体包括:
获取所述CEPH系统的映射关系;
分别获取所述节点的第一ID信息、所述pool的第二ID信息、所述OSD的第三ID信息以及所述PG的第四ID信息;以及
根据所述第一ID信息、所述第二ID信息、所述第三ID信息、所述第四ID信息以及所述映射关系得到所述节点、所述pool、所述OSD和所述PG之间的拓扑关系。
10.一种基于CEPH系统的终端,其特征在于,所述基于CEPH系统的终端包括:
存储器,用于存储程序指令;以及
处理器,用于执行所述程序指令以实现如权利要求1至9中任一项所述的CEPH系统的管理方法。
CN202210860358.6A 2022-07-22 2022-07-22 Ceph系统的管理方法及基于ceph系统的终端 Active CN115080532B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210860358.6A CN115080532B (zh) 2022-07-22 2022-07-22 Ceph系统的管理方法及基于ceph系统的终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210860358.6A CN115080532B (zh) 2022-07-22 2022-07-22 Ceph系统的管理方法及基于ceph系统的终端

Publications (2)

Publication Number Publication Date
CN115080532A CN115080532A (zh) 2022-09-20
CN115080532B true CN115080532B (zh) 2022-11-11

Family

ID=83242483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210860358.6A Active CN115080532B (zh) 2022-07-22 2022-07-22 Ceph系统的管理方法及基于ceph系统的终端

Country Status (1)

Country Link
CN (1) CN115080532B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016209667A1 (en) * 2015-06-23 2016-12-29 Western Digital Technologies, Inc. Data management for object based storage
CN107817950A (zh) * 2017-10-31 2018-03-20 新华三技术有限公司 一种数据处理方法及装置
CN111930713A (zh) * 2020-09-21 2020-11-13 柏科数据技术(深圳)股份有限公司 Ceph放置组的分配方法、装置、服务器及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104796270B (zh) * 2014-01-16 2018-03-27 国际商业机器公司 在云应用的问题诊断中推荐可疑组件的方法及装置
CN107454140A (zh) * 2017-06-27 2017-12-08 北京溢思得瑞智能科技研究院有限公司 一种基于大数据平台的Ceph集群自动化部署方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016209667A1 (en) * 2015-06-23 2016-12-29 Western Digital Technologies, Inc. Data management for object based storage
CN107817950A (zh) * 2017-10-31 2018-03-20 新华三技术有限公司 一种数据处理方法及装置
CN111930713A (zh) * 2020-09-21 2020-11-13 柏科数据技术(深圳)股份有限公司 Ceph放置组的分配方法、装置、服务器及存储介质

Also Published As

Publication number Publication date
CN115080532A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN110647608B (zh) 基于地图的海量数据聚合显示方法及系统、设备、介质
JP4343578B2 (ja) ストレージ運用管理システム
US6369820B1 (en) Method and system for graphically displaying trend and range data for a variety of systems
CN103488569B (zh) 电子设备性能的测试方法及装置
US20120137308A1 (en) Adaptive tree structure for visualizing data
US10635765B2 (en) Cluster drawing on divided display region allocated to cluster
JP2012038317A (ja) データセンター顧客費用決定メカニズム
CN109800204B (zh) 数据分配方法及相关产品
CN110928739B (zh) 一种进程监控方法、装置以及计算设备
US8443369B1 (en) Method and system for dynamically selecting a best resource from each resource collection based on resources dependencies, prior selections and statistics to implement an allocation policy
CN115080532B (zh) Ceph系统的管理方法及基于ceph系统的终端
US20140192082A1 (en) Methods and systems for generating an aggregated data visualization
CN107111549B (zh) 一种文件系统的管理方法及装置
CN103810208B (zh) 一种类目映射方法及装置
JP3262092B2 (ja) 不良分布解析システム、方法及び記録媒体
CN114070847A (zh) 服务器的限流方法、装置、设备及存储介质
CN110932935A (zh) 资源控制方法、装置、设备及计算机存储介质
CN115840711A (zh) 图形用户界面的软件测试方法、系统、存储介质及计算机
CN113905252B (zh) 直播间的数据存储方法、装置、电子设备及存储介质
CN112883239B (zh) 一种资源分配方法、装置、计算机设备及存储介质
CN114996005A (zh) 一种资源调度方法、装置、设备及介质
CN110990394B (zh) 分布式面向列数据库表的行数统计方法、装置和存储介质
Lloyd et al. Surface models and the spatial structure of population variables: Exploring smoothing effects using Northern Ireland grid square data
WO2022150961A1 (zh) 一种区块链安全监测方法、装置、电子设备及存储介质
CN112783722B (zh) 一种区块链安全监测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant