CN108920100A - 基于Ceph的读写模型优化和异构副本组合方法 - Google Patents
基于Ceph的读写模型优化和异构副本组合方法 Download PDFInfo
- Publication number
- CN108920100A CN108920100A CN201810660726.6A CN201810660726A CN108920100A CN 108920100 A CN108920100 A CN 108920100A CN 201810660726 A CN201810660726 A CN 201810660726A CN 108920100 A CN108920100 A CN 108920100A
- Authority
- CN
- China
- Prior art keywords
- node
- copy
- write
- temperature
- combination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
- G06F3/0605—Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
- G06F3/0611—Improving I/O performance in relation to response time
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/065—Replication mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于Ceph的读写模型优化和异构副本组合方法,属于计算机技术领域。该方法包括:S1:改变Ceph副本写强一致性模型为副本写弱一致性模型;S2:采用一种读优化方案,用副本节点的综合性能作为权重,来决定副本节点提供读服务的概率;S3:对象副本节点通过SSD和HDD的不同组合方式的读写性能发挥集群的异构特性;S4:根据集群的数据热度采用一种数据迁移方案,同时改进Ceph选择对象存储节点算法,根据数据热度将对象迁移到符合相应副本组合方式中,从而提高整个Ceph集群的读写性能。本发明解决了Ceph不感知异构存储节点以及读写性能延迟较高的问题。
Description
技术领域
本发明属于计算机技术领域,涉及分布式文件系统Ceph异构存储领域,尤其涉及一种对象存储副本组合方式和读写模型优化方案。
背景技术
近年来,由于云计算和云存储的引入,面对海量级的数据需要计算与存储,分布式系统成为首选。它将各种各样的存储资源结合起来共同对外服务,可以将单一的任务分发到不同的节点进行处理,大大提高了处理的效率。
Ceph作为一个新兴的分布式存储系统,它的原型是一项关于存储系统的Ph D研究项目,由加利福尼亚大学的Sage Weil在2007年提出。2010年三月底,可以在主线Linux内核(从2.6.34版开始)找到Ceph的身影。目前Inktank公司掌控Ceph文件系统的开发,Ceph是开源的,遵循LGPL协议。Ceph的第一个版本在2012年6月发布。Ceph这个分布式存储系统拥有很多亮点,它拥有块存储、对象存储、文件系统存储的统一存储能力和自动化的维护等等,它是一个可靠的自治的分布式存储系统。Ceph使用CRUSH算法替代了广泛使用的一致性哈希,很好的解决的数据分布的问题,消除了传统分布式存储中的中心节点,客户端只要使用CRUSH就可以知道数据存放在哪。并且Ceph的元数据服务器集群使用了动态子树分区的策略,可以很好的平衡各个元数据服务器上的负载。Ceph目前在Open Stack社区中备受重视,得到越来越多的应用。Open Stack是目前最为流行的开源云操作系统。Ceph由于它的统一存储能力可以作为Open Stack的强大的后端存储,大部分Open Stack的研究者或使用者都会将Ceph作为他们的备选方案,毕竟Ceph能提供Open Stack需要的分布式对象存储、块存储、文件系统存储。Ceph可以将对象通过映射策略均匀地分散到各个存储设备上,但是Ceph仅将储存节点的剩余容量作为权重,并未考虑存储节点的异构情况,换句话说Ceph是不感知异构的。这将使Ceph的数据存放策略不能有效发挥异构存储设备的性能,同时由于Ceph采用的是强一致性的策略,客户端将数据送给主节点后,经由主节点将数据发送给从节点,当所有的副本节点都持久化成功后主节点才会回复客户端写成功信息,在此期间客户端不能进行其他的操作,这极大地限制了Ceph的写效率。同时Ceph在读对象时只读主副本,没有发挥从副本的I/O性能。
发明内容
有鉴于此,本发明的目的在于提供一种基于Ceph的读写模型优化和异构副本组合方法,用于解决Ceph不感知异构存储节点以及读写性能延迟较高的问题。
为达到上述目的,本发明提供如下技术方案:
一种基于Ceph的读写模型优化和异构副本组合方法,具体包括以下步骤:
S1:改变Ceph副本写强一致性模型为副本写弱一致性模型,当主副本节点写完毕后立即返回客户端写成功信息,降低集群的写延迟以提高集群的写性能;
S2:针对Ceph只从主副本节点读取对象的现状提出采用一种读优化方案以充分发挥从副本节点的性能,用副本节点的综合性能作为权重,来决定副本节点提供读服务的概率,充分发挥从副本的性能以提高集群的读性能;
S3:针对Ceph集群不感知异构存储节点,对象副本节点通过SSD和HDD的不同组合方式的读写性能特点充分发挥集群的异构特性,并设置对象的初始副本组合方式为1SSD+2HDD;
S4:根据集群的数据热度提出采用一种数据迁移方案从而充分发挥各种副本组合方式的读写性能特点,同时改进Ceph选择对象存储节点算法,根据数据热度将对象迁移到符合相应副本组合方式中,从而提高整个Ceph集群的读写性能。
进一步,Ceph采用的是副本写强一致性模型,在写对象时客户端将对象发给主副本节点,由主副本节点将对象发给从副本节点,当主副本节点收到所有从副本节点写完成的回复信息,并且主副本节点也写完毕后才回复客户端写成功信息,这样会造成客户端在写入过程中过长时间的等待。故本发明提出一种副本写弱一致性模型,客户端将对象发送给主副本节点,当对象在主副本节点写完毕后立即发送写成功信息给客户端,如图1所示,将有效的提高写效率,同时也保证了数据的安全。
所述步骤S1具体包括以下步骤:
S11:客户端通过映射算法CRUSH得到一组副本节点,并将第一个节点作为主副本节点,其他为从副本节点,客户端将对象发送给主副本节点;
S12:主副本节点将对象写入磁盘并同时开启一个线程将对象发送给从副本节点,当主副本节点完成写入后立即返回客户端写入成功信息,并由主副本节点的后台维护从副本节点的该对象写入。
进一步,所述步骤S2具体包括以下步骤:
S21:在读取对象时,先通过映射算法计算出对象的一组存储副本节点,并判断对象是否被从副本节点写完毕;
S22:若从副本节点中的对象还没有写入完毕,则直接从主副本节点读取对象;
S23:若从副本节点中的对象写入完毕,则通过节点的综合性能算法计算出每一个副本节点的性能值,将每个节点的性能值分别乘以一个不同的随机数,由乘积最大的节点来提供读服务。
进一步,Ceph在读对象时,只从主副本节点读取对象,会造成主副本节点的I/O压力比较大从而影响读性能,而且没有发挥从副本节点的I/O性能。为了降低主副本节点的I/O压力同时充分发挥从副本的I/O性能,用副本节点的综合性能作为权重,来决定副本节点提供读服务的概率。存储节点的性能根据存储节点的cpu、内存、硬盘、距离来综合考虑得到的,如(1)式所示,所述通过节点的综合性能算法计算出每一个副本节点的性能值为:
Pi=w1Distancei+w2Diski+w3CPUi+w4Memi (1)
其中,Pi为存储节点的性能,Distancei为存储节点的距离,Diski为存储节点的硬盘,CPUi为存储节点的CPU,Memi为存储节点的内存,w为各个性能指标的占比参数;
将分别使用一个随机数乘以性能P,用最后乘积最大的那个副本节点来提供读服务,如(2)式所示。从副本节点中选择Decision最大的节点来提供读服务,以充分发挥从副本的性能来提高Ceph的读效率;
Decisioni=Pi*Randomi (2)
其中,Randomi为随机数。
通过(1)(2)式就可以确定对象从哪个副本节点读取。由于写采用的是弱一致性模型,所以存在当读取对象时,从副本节点中的对象还没有完成写入过程,虽然这种情况会很少出现,因为刚写完毕的对象很少立即读取,但是也应考虑这种情况。所以当读取对象时,先判断对象是否在从副本节点中写入完毕,如果在从副本节点中写完毕则通过上面的模型选择Decision最大的节点读取对象,反之则从主副本读取对象,如图2中流程图所示。
进一步,所述步骤S3中,Ceph是不感知异构存储的也就是说在由SSD和HDD的组成的Ceph集群中,不能发挥SSD的性能优势。本发明针对Ceph不感知异构存储,通过SSD和HDD的不同组合方式的性能特点来充分利用SSD的性能优势。如表1所示,所述对象副本节点通过SSD和HDD的不同组合方式为:3HDD、1SSD+2HDD、2SSD+1HDD和3SSD,其中SSD为主副本;不同副本组合方式中读性能分为四级:3HDD﹤1SSD+2HDD﹤2SSD+1HDD﹤3SSD;写性能分为两级:3HDD<1SSD+2HDD=2SSD+1HDD=3SSD。
表1组合方式和组合类型对应关系
副本节点组合方式 | 3HDD | 1SSD+2HDD | 2SSD+1HDD | 3SSD |
副本节点组合类型 | A类 | B类 | C类 | D类 |
可以看出上述四种副本组合方式中,写性能分为两级,读性能分为四个级别,为了提高整个集群的读写性能充分发挥以上四种组合方式的读写性能特点,应将相应的数据对象放入对应的副本组合中,因为对象刚放入集群中是没有热度的,所以默认对象刚放入集群中采用B类组合方式。
进一步,所述步骤S4中,根据收集数据的热度分析,将相应热度级别的对象迁移到步骤S3中对应的四种副本组合方式的中,从而充分发挥不同副本组合方式的读写性能特征,以提高数据的读写性能;
如表2所示,将读热度分为四个级别:冷RT1、较热RT2、热RT3和最热RT4,分别对应四种不同的组合方式,读热度RT1对应组合方式3HDD,读热度RT2对应组合方式1SSD+2HDD,读热度RT3对应组合方式2SSD+1HD,读热度RT4对应组合方式3SDD;
表2读热度与组合类型对应关系
读热度级别 | 冷(RT1) | 较热(RT2) | 热(RT3) | 最热(RT4) |
副本组合类型 | A类 | B类 | C类 | D类 |
如表3所示,将写热度分为两个级别:冷WT1和热WT2,分别对应相应的副本组合方式,写热度WT1对应组合方式3HDD,写热度WT2对应组合方式1SSD+2HDD、2SSD+1HDD和3SSD。
表3写热度与组合类型对应关系
写热度级别 | 冷(WT1) | 热(WT2) |
副本组合类型 | A类 | B类、C类、D类 |
进一步,所述步骤S4中,根据对象的读写热度级别,来决定对象副本应放置的副本组合方式,如表4所示;
表4读写热度与组合类型对应关系
读冷(RT1) | 读较热(RT2) | 读热(RT3) | 读最热(RT4) | |
写冷(WT1) | A类 | B类 | C类 | D类 |
写热(WT2) | B类 | B类 | C类 | D类 |
改进Ceph集群映射存储节点算法,让集群在为对象挑选(映射)存储节点时加入数据热度信息,根据对象的热度挑选符合特定副本组合方式的存储节点。
在进行对象的读写热度分析后,最终的副本组合方式选取过程如下:
S41:根据副本组合方式和对象读热度对应关系得到符合对象读热度的副本组合方式;
S42:分析对象的写热度,若写热度为WT1,则写热度副本组合方式为3HDD,若写热度为WT2,则写热度组合方式为1SSD+2HDD、2SSD+1HDD和3SSD;
S43:取符合对象读热度的副本组合方式与符合写热度的副本组合方式的交集,交集不空,则返回交集,结束;交集为空,则下一步;
S44:若对象写热度为WT2,则取符合写热度的副本组合方式为1SSD+2HDD,然后与符合对象读热度的副本组合方式比较,取SSD最多的副本组合方式;若对象写热度为WT1,则直接比较符合对象读热度的副本组合方式,取SSD最多的组合方式。
本发明的有益效果在于:
1)本发明提出了一种基于Ceph的数据副本弱一致性方案,降低集群的写延迟以提高集群的写性能;
2)针对Ceph集群没有发挥从副本的I/O性能,本发明提出一种读模型充分发挥从副本的性能,以提高集群的读性能;
3)针对Ceph集群不感知异构,本发明通过SSD和HDD的四种不同组合方式3HDD、1SSD+2HDD(SSD主副本)、2SSD+1HDD(SSD主副本)、3SSD(SSD主副本)充分发挥异构性能;
4)本发明根据集群的数据热度提出一种数据迁移方案充分发挥各种副本组合方式的性能,同时改进Ceph选择对象存储节点算法,根据数据热度选择符合特定组合方式的一组存储节点。
附图说明
为了使本发明的目的、技术方案和有益效果更加清楚,本发明提供如下附图进行说明:
图1为改进后的写模式;
图2为对象读取流程图;
图3为改进的Ceph挑选副本算法流程图。
具体实施方式
下面将结合附图,对本发明的优选实施例进行详细的描述。
本发明将Ceph的副本写强一致性模型,优化为副本写弱一致性模型,即当主副本节点写完毕后立即返回给客户端写成功信息,并由主副本节点来维护从副本节点中该对象的写入过程;针对Ceph在读取副本时只从主副本节点中读取的读模式没有充分发挥从副本性能,提出一种根据对象副本节点性能来决定由那个副本节点来提供读服务模型,以充分发挥从副本节点的I/O性能;针对Ceph不感知异构的存储节点,提出异构副本的不同组合方式并根据对象热度动态的将对象迁移到符合特定组合方式的副本中,以充分发挥存储节点的异构性提高集群性能。
本发明所述的基于Ceph的读写模型优化和异构副本组合方法,包括以下步骤:
步骤一:将副本写强一致性模型优化为副本写弱一致性模型
当Ceph写对象时,通过映射算法得出一组副本节点并且将第一个副本节点作为主副本节点其他为从副本节点,客户端将对象发送给主副本节点,主副本节点将对象写入磁盘并同时开启一个线程将对象发送给从副本节点,当主副本节点完成写入过程后立即返回客户端写入成功信息,并由主副本节点的后台维护从副本节点中该对象的写入过程,如图1所示。
Step1:客户端通过映射算法CRUSH得到一组副本节点,并且将第一个节点作为主副本节点,其他为从副本节点,客户端将对象发送给主副本节点;
Step2:主副本节点将对象写入磁盘并同时开启一个线程将对象发送给从副本节点,当主副本节点完成写入后立即返回客户端写入成功信息,并由主副本节点的后台维护从副本节点的该对象写入。
步骤二:改进读模式
在读取对象时,先通过映射算法计算出对象的一组存储节点,判断对象是否在从副本节点写完毕,如果在从副本节点没有写完毕,此时直接从主副本节点读取对象。若从副本节点中该对象写入完毕,则通过节点的综合性能算法计算出每一个副本节点的性能值将每个节点的性能值分别乘以一个不同的随机数,并由乘积最大的节点提供读服务,如图2中流程图所示。
Step1:将要访问的对象的唯一标示ObjectId通过CRUSH映射算法计算出该对象存储的一组节点;
Step2:判断该对象是否在从副本节点中写入完毕,若未写入完毕执行Step3,在从副本写入完毕则跳过Step3直接执行Step4;
Step3:从主副本读取对象,结束;
Step4:计算存储节点的性能值,并分别乘以一个随机数;
Step5:从乘积最大的副本节点读取数据,结束。
步骤三:改进Ceph映射存储节点的方法,加入热度因子
改变Ceph中映射算法CRUSH中的函数crush_do_rule,加入根据对象热度选择特定组合方式的步骤,在原有算法的基础上对选到的OSD进行组合方式判断,并将组合方式判断加在对OSD是否过载步骤之前以防止节点过载,同时对对象设置一个初始热度,即当对象第一次选择存储节点时默认为组合类型为B类(1SSD+2HDD)并且主节点为SSD,以提高对象的读写速度,如图3所示,改进后的Ceph挑选副本算法流程为:
Step1:设置计算器rep=0,rep代表已选到的副本数;
Step2:判断rep是否等于设置副本数,若rep等于设置副本数则结束,否则进入下一步;
Step3:设置本副本可以尝试次数local_retries=20,已经尝试次数flocal=0,设置随机因子r,在当前的bucket下根据算法选择一个item;
Step4:判断item是否为期望类型,若不是期望类型则将item设置为当前bucket并跳到上一步Setp3,若是期望类型则进入下一步;
Step5:判断item是否已经在输出条目列表中(即是否冲突),若冲突则将flocal=flocal+1并判断flocal是否小于local_retries,若小于则将随机因子r加一(r=r+1)并执行上一步Step4,否则将rep加一(rep=rep+1)并跳到Step2;
Step6:判断是否设置了容灾域模式,若没有设置容灾域则进入下一步Step7,否则判断item是否为叶子节点,若为叶子节点则跳到Step8,若item不为叶子节点则设置期望类型为叶子节点并跳到Step1开始执行;
Step7:判断item是否为叶子节点,若不为叶子节点则直接放入输出列表中并将rep加一(rep=rep+1)跳到Step2,否则执行下一步;
Step8:根据历史访问信息确定该对象的热度级别,若该对象是第一次存放则设置设置对象热度为初始热度,然后根据热度判断item是否符合该热度下的副本组合方式要求,若不符合则执行Step9,否则执行Step10;
Step9:判断是否为最后一次尝试,若不为最后一次尝试则将flocal=flocal+1并判断flocal是否小于local_retries,若小于则将随机因子加一(r=r+1)并执行Step4,否则将rep加一(rep=rep+1)并跳到Step2,若为最后一次则执行下一步;
Step10:判断item是否过载,若过载则将flocal=flocal+1并判断flocal是否小于local_retries,若小于则将随机因子加一(r=r+1)并执行Step4,否则将rep加一(rep=rep+1)并跳到Step2,若不过载则将item放入输出条目中并将rep加一(rep=rep+1)跳到Step2;
步骤四:根据对象热度迁移对象到相应的组合方式
数据迁移步骤:
Step1:通过访问历史分析对象冷热级别;
Step2:根据对象冷热级别和当前组合类型确定迁移对象;
Step3:将迁移对象和迁移目标的副本组合类型写入迁移集合中;
Step4:遍历迁移集合为每个迁移对象选择一组符合该热度下副本组合类型的一组存储节点OSDs;
Step5:将对象迁移到OSDs中,并更新对象映射关系;
Step6:删除原存储节点中该对象。
最后说明的是,以上优选实施例仅用以说明本发明的技术方案而非限制,尽管通过上述优选实施例已经对本发明进行了详细的描述,但本领域技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离本发明权利要求书所限定的范围。
Claims (7)
1.一种基于Ceph的读写模型优化和异构副本组合方法,其特征在于,该方法具体包括以下步骤:
S1:改变Ceph副本写强一致性模型为副本写弱一致性模型,当主副本节点写完毕后立即返回客户端写成功信息,降低集群的写延迟以提高集群的写性能;
S2:采用一种读优化方案,用副本节点的综合性能作为权重,来决定副本节点提供读服务的概率,充分发挥从副本的性能以提高集群的读性能;
S3:对象副本节点通过SSD和HDD的不同组合方式的读写性能发挥集群的异构特性,并设置对象的初始副本组合方式为1SSD+2HDD;
S4:根据集群的数据热度采用一种数据迁移方案,同时改进Ceph选择对象存储节点算法,根据数据热度将对象迁移到符合相应副本组合方式中,从而提高整个Ceph集群的读写性能。
2.根据权利要求1所述的基于Ceph的读写模型优化和异构副本组合方法,其特征在于,所述步骤S1具体包括以下步骤:
S11:客户端通过映射算法CRUSH得到一组副本节点,并将第一个节点作为主副本节点,其他为从副本节点,客户端将对象发送给主副本节点;
S12:主副本节点将对象写入磁盘并同时开启一个线程将对象发送给从副本节点,当主副本节点完成写入后立即返回客户端写入成功信息,并由主副本节点的后台维护从副本节点的该对象写入。
3.根据权利要求1所述的基于Ceph的读写模型优化和异构副本组合方法,其特征在于,所述步骤S2具体包括以下步骤:
S21:在读取对象时,先通过映射算法计算出对象的一组存储副本节点,并判断对象是否被从副本节点写完毕;
S22:若从副本节点中的对象还没有写入完毕,则直接从主副本节点读取对象;
S23:若从副本节点中的对象写入完毕,则通过节点的综合性能算法计算出每一个副本节点的性能值,将每个节点的性能值分别乘以一个不同的随机数,由乘积最大的节点来提供读服务。
4.根据权利要求3所述的基于Ceph的读写模型优化和异构副本组合方法,其特征在于,所述通过节点的综合性能算法计算出每一个副本节点的性能值为:
Pi=w1Distancei+w2Diski+w3CPUi+w4Memi (1)
其中,Pi为存储节点的性能,Distancei为存储节点的距离,Diski为存储节点的硬盘,CPUi为存储节点的CPU,Memi为存储节点的内存,w为各个性能指标的占比参数;
从副本节点中选择Decision最大的节点来提供读服务,
Decisioni=Pi*Randomi (2)
其中,Randomi为随机数。
5.根据权利要求1所述的基于Ceph的读写模型优化和异构副本组合方法,其特征在于,所述步骤S3中,所述对象副本节点通过SSD和HDD的不同组合方式为:3HDD、1SSD+2HDD、2SSD+1HDD和3SSD,其中SSD为主副本;不同副本组合方式中读性能分为四级:3HDD﹤1SSD+2HDD﹤2SSD+1HDD﹤3SSD;写性能分为两级:3HDD<1SSD+2HDD=2SSD+1HDD=3SSD。
6.根据权利要求5所述的基于Ceph的读写模型优化和异构副本组合方法,其特征在于,所述步骤S4中,根据收集数据的热度分析,将相应热度级别的对象迁移到步骤S3中对应的四种副本组合方式的中;
将读热度分为四个级别:冷RT1、较热RT2、热RT3和最热RT4,分别对应四种不同的组合方式,读热度RT1对应组合方式3HDD,读热度RT2对应组合方式1SSD+2HDD,读热度RT3对应组合方式2SSD+1HD,读热度RT4对应组合方式3SDD;
将写热度分为两个级别:冷WT1和热WT2,分别对应相应的副本组合方式,写热度WT1对应组合方式3HDD,写热度WT2对应组合方式1SSD+2HDD、2SSD+1HDD和3SSD。
7.根据权利要求6所述的基于Ceph的读写模型优化和异构副本组合方法,其特征在于,所述步骤S4中,在进行对象的读写热度分析后,最终的副本组合方式选取过程如下:
S41:根据副本组合方式和对象读热度对应关系得到符合对象读热度的副本组合方式;
S42:分析对象的写热度,若写热度为WT1,则写热度副本组合方式为3HDD,若写热度为WT2,则写热度组合方式为1SSD+2HDD、2SSD+1HDD和3SSD;
S43:取符合对象读热度的副本组合方式与符合写热度的副本组合方式的交集,交集不空,则返回交集,结束;交集为空,则下一步;
S44:若对象写热度为WT2,则取符合写热度的副本组合方式为1SSD+2HDD,然后与符合对象读热度的副本组合方式比较,取SSD最多的副本组合方式;若对象写热度为WT1,则直接比较符合对象读热度的副本组合方式,取SSD最多的组合方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810660726.6A CN108920100B (zh) | 2018-06-25 | 2018-06-25 | 基于Ceph的读写模型优化和异构副本组合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810660726.6A CN108920100B (zh) | 2018-06-25 | 2018-06-25 | 基于Ceph的读写模型优化和异构副本组合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108920100A true CN108920100A (zh) | 2018-11-30 |
CN108920100B CN108920100B (zh) | 2021-06-15 |
Family
ID=64421128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810660726.6A Active CN108920100B (zh) | 2018-06-25 | 2018-06-25 | 基于Ceph的读写模型优化和异构副本组合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108920100B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992204A (zh) * | 2019-03-19 | 2019-07-09 | 新华三技术有限公司成都分公司 | 数据存储方法及装置 |
CN110442646A (zh) * | 2019-07-29 | 2019-11-12 | 北京易捷思达科技发展有限公司 | 一种ceph数据同步模块主端写性能优化系统及方法 |
CN111625203A (zh) * | 2020-07-31 | 2020-09-04 | 苏州浪潮智能科技有限公司 | 一种分级存储的方法、系统、设备及介质 |
CN111813334A (zh) * | 2020-06-04 | 2020-10-23 | 中国科学院上海微系统与信息技术研究所 | 一种Ceph的写性能优化和双控节点组合方法 |
CN112346667A (zh) * | 2021-01-07 | 2021-02-09 | 广东睿江云计算股份有限公司 | 一种ceph存储osd读均衡方法及其系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105450734A (zh) * | 2015-11-09 | 2016-03-30 | 上海爱数信息技术股份有限公司 | 分布式存储ceph的数据分布优化方法 |
CN105577763A (zh) * | 2015-12-16 | 2016-05-11 | 浪潮(北京)电子信息产业有限公司 | 一种动态副本一致性维护系统、方法及云存储平台 |
US20160349993A1 (en) * | 2015-05-29 | 2016-12-01 | Cisco Technology, Inc. | Data-driven ceph performance optimizations |
CN106406765A (zh) * | 2016-09-22 | 2017-02-15 | 江苏赞奇科技股份有限公司 | 基于文件链接的异构分布式存储系统及其文件管理方法 |
CN107145307A (zh) * | 2017-04-27 | 2017-09-08 | 郑州云海信息技术有限公司 | 一种基于分布式存储的动态元数据优化方法和系统 |
CN108197159A (zh) * | 2017-12-11 | 2018-06-22 | 厦门集微科技有限公司 | 基于分布式文件系统的数据读取、写入方法及装置 |
-
2018
- 2018-06-25 CN CN201810660726.6A patent/CN108920100B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160349993A1 (en) * | 2015-05-29 | 2016-12-01 | Cisco Technology, Inc. | Data-driven ceph performance optimizations |
CN105450734A (zh) * | 2015-11-09 | 2016-03-30 | 上海爱数信息技术股份有限公司 | 分布式存储ceph的数据分布优化方法 |
CN105577763A (zh) * | 2015-12-16 | 2016-05-11 | 浪潮(北京)电子信息产业有限公司 | 一种动态副本一致性维护系统、方法及云存储平台 |
CN106406765A (zh) * | 2016-09-22 | 2017-02-15 | 江苏赞奇科技股份有限公司 | 基于文件链接的异构分布式存储系统及其文件管理方法 |
CN107145307A (zh) * | 2017-04-27 | 2017-09-08 | 郑州云海信息技术有限公司 | 一种基于分布式存储的动态元数据优化方法和系统 |
CN108197159A (zh) * | 2017-12-11 | 2018-06-22 | 厦门集微科技有限公司 | 基于分布式文件系统的数据读取、写入方法及装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992204A (zh) * | 2019-03-19 | 2019-07-09 | 新华三技术有限公司成都分公司 | 数据存储方法及装置 |
CN110442646A (zh) * | 2019-07-29 | 2019-11-12 | 北京易捷思达科技发展有限公司 | 一种ceph数据同步模块主端写性能优化系统及方法 |
CN110442646B (zh) * | 2019-07-29 | 2021-01-12 | 北京易捷思达科技发展有限公司 | 一种ceph数据同步模块主端写性能优化系统及方法 |
CN111813334A (zh) * | 2020-06-04 | 2020-10-23 | 中国科学院上海微系统与信息技术研究所 | 一种Ceph的写性能优化和双控节点组合方法 |
CN111813334B (zh) * | 2020-06-04 | 2024-04-05 | 中国科学院上海微系统与信息技术研究所 | 一种Ceph的写性能优化和双控节点组合方法 |
CN111625203A (zh) * | 2020-07-31 | 2020-09-04 | 苏州浪潮智能科技有限公司 | 一种分级存储的方法、系统、设备及介质 |
CN112346667A (zh) * | 2021-01-07 | 2021-02-09 | 广东睿江云计算股份有限公司 | 一种ceph存储osd读均衡方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108920100B (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920100A (zh) | 基于Ceph的读写模型优化和异构副本组合方法 | |
US11574202B1 (en) | Data mining technique with distributed novelty search | |
Mahgoub et al. | {OPTIMUSCLOUD}: Heterogeneous configuration optimization for distributed databases in the cloud | |
CN103299267B (zh) | 用于执行多租户存储中的交叉存储连接的方法和系统 | |
CN102841761B (zh) | 存储系统 | |
JP4614956B2 (ja) | データの所有権の動的な再割当 | |
CN101446885B (zh) | 存储系统以及存储系统的访问控制方法 | |
CN101271382B (zh) | 存储系统及存储系统的运用方法 | |
CN107844269A (zh) | 一种基于一致性哈希的分层混合存储系统及方法 | |
JP2005259155A (ja) | マルチパス・コンピュータ・システムにおけるパス間でワークロードのバランスを取る方法および装置 | |
CN105339929A (zh) | 选择用于取消重复数据的存储 | |
Ahirrao et al. | Scalable transactions in cloud data stores | |
US20170286477A1 (en) | Database system recovery using non-volatile system memory | |
CN115129782A (zh) | 一种分布式数据库的分区级连接方法和装置 | |
US20090006501A1 (en) | Zone Control Weights | |
CN111680019A (zh) | 一种区块链的数据扩容方法及其装置 | |
CN107092525A (zh) | 数据缓存方法和装置 | |
CN104580518A (zh) | 一种用于存储系统的负载均衡控制方法 | |
CN104715044A (zh) | 一种分布式系统及其数据操作方法 | |
CN110381136A (zh) | 一种数据读取方法、终端、服务器及存储介质 | |
Benlachmi et al. | A comparative analysis of hadoop and spark frameworks using word count algorithm | |
Arrieta-Salinas et al. | Classic replication techniques on the cloud | |
CN110321071A (zh) | 存储器系统、其操作方法和包括该存储器系统的计算系统 | |
CN106547484A (zh) | 一种基于raid5的实现内存数据可靠性方法及系统 | |
CN110018997A (zh) | 一种基于hdfs的海量小文件存储优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |