CN101566932A - 多磁盘阵列系统的数据写入方法及多磁盘阵列系统 - Google Patents
多磁盘阵列系统的数据写入方法及多磁盘阵列系统 Download PDFInfo
- Publication number
- CN101566932A CN101566932A CNA2009100857362A CN200910085736A CN101566932A CN 101566932 A CN101566932 A CN 101566932A CN A2009100857362 A CNA2009100857362 A CN A2009100857362A CN 200910085736 A CN200910085736 A CN 200910085736A CN 101566932 A CN101566932 A CN 101566932A
- Authority
- CN
- China
- Prior art keywords
- array
- disk array
- write
- data
- write performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
本发明公开了一种多磁盘阵列系统的数据写入方法和多磁盘阵列系统,该方法包括:周期性检测多磁盘阵列系统中每个磁盘阵列的数据写入指标;根据所述数据写入指标确定每个磁盘阵列的写入性能;将数据写入跨阵列逻辑资源时,根据所述写入性能将需写入的数据分配给所述逻辑资源包含的所有可用阵列;根据所述分配将需写入的数据并行写入所述所有可用阵列。该方法和系统将现有串行的写入方式转换为多阵列并行写入,从而提高了多磁盘阵列系统中跨阵列逻辑资源的数据写入效率和多磁盘阵列系统的整体写入性能。
Description
技术领域
本发明涉及磁盘阵列技术领域,特别涉及多磁盘阵列系统的数据写入方法及多磁盘阵列系统。
背景技术
独立磁盘冗余阵列(RAID,Redundant Array of Independent Disks),简称为“磁盘阵列”,是一种应用广泛的存储技术,而多磁盘阵列系统则是由多个磁盘阵列组成的数据存储系统。该系统中,自下而上可以分为物理资源层、RAID控制层和逻辑资源层。
物理资源层是底层具体的物理磁盘阵列,由RAID控制层统一控制管理,RAID控制层之上,是用户划分的逻辑资源层,也就是SAN资源,它是由分布在RAID上一系列连续或者非连续的逻辑地址所组成的,逻辑资源可以分配给更上层的用户应用层,供用户使用。
当一个SAN资源分布在多个RAID阵列上时,图1为逻辑资源跨RAID分布示意图,如图1所示,一个跨3个阵列的逻辑资源的大小为35G,分别使用了RAIDx中的10G空间,RAIDy中的20G空间,RAIDz中的5G空间,此时,RAID控制器对此逻辑资源的具体写入操作是先写完RAIDx上的空间,再写RAIDy,最后再写RAIDz,即串行顺序写入,因此在写某个RAID时,其他的RAID都是空闲的,写入效率很低;且每个RAID阵列具体的物理磁盘组成可能不同,性能有高有低,现有的串行顺序写入方式可能会造成跨RAID逻辑资源的写入性能时好时坏的情况。
发明内容
本发明实施例提供一种多磁盘阵列系统的数据写入方法,能够提高跨RAID逻辑资源的写入效率。
本发明实施例提供一种多磁盘阵列系统,能够提高跨RAID逻辑资源的写入效率。
为达到上述目的,本发明的技术方案具体是这样实现的:
一种多磁盘阵列系统的数据写入方法,该方法包括:
周期性检测多磁盘阵列系统中每个磁盘阵列的数据写入指标;
根据所述数据写入指标确定每个磁盘阵列的写入性能;
将数据写入跨阵列逻辑资源时,根据所述写入性能将需写入的数据分配给所述逻辑资源包含的所有可用阵列;
根据所述分配将需写入的数据并行写入所述所有可用阵列。
一种多磁盘阵列系统,包括逻辑资源控制模块、阵列控制模块和两个以上的磁盘阵列,
所述阵列控制模块,与逻辑资源控制模块及每一个磁盘阵列相连,用于周期性检测所述系统中每个磁盘阵列的数据写入指标;根据所述数据写入指标确定每个磁盘阵列的写入性能;
所述逻辑资源控制模块,用于将数据写入跨阵列逻辑资源时,根据所述阵列控制模块确定的写入性能,将需写入的数据分配给所述逻辑资源包含的所有可用阵列;根据所述分配,通过所述阵列控制模块将需写入的数据并行写入所述所有可用阵列。
由上述的技术方案可见,本发明的这种多磁盘阵列系统的数据写入方法和多磁盘阵列系统,通过周期性检测多磁盘阵列系统中每个磁盘阵列的数据写入指标;根据所述数据写入指标确定每个磁盘阵列的写入性能;将数据写入跨阵列逻辑资源时,根据所述写入性能将需写入的数据分配给所述逻辑资源包含的所有可用阵列;根据所述分配将需写入的数据并行写入所述所有可用阵列。由于利用了多磁盘阵列系统中,各阵列输入输出(IO)可以并发的特性,对跨阵列逻辑资源的数据写入进行动态分配,将现有串行的写入方式转换为多阵列并行写入,使IO指标高的阵列分配较多的写入数据,IO指标低的阵列分配较少的写入数据,从而提高了多磁盘阵列系统中跨阵列逻辑资源的数据写入效率,提高了多磁盘阵列系统的整体写入性能。
附图说明
图1为逻辑资源跨RAID分布示意图;
图2为本发明实施例的多磁盘阵列系统的数据写入方法总体流程图
图3为本发明实施例的并行写入原理示意图;
图4为本发明较佳实施例的多磁盘阵列系统的数据写入方法流程图;
图5为本发明实施例的多磁盘阵列系统结构示意图;
图6为本发明实施例的逻辑资源控制模块结构示意图;
图7为本发明实施例的阵列控制模块结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
本发明主要是利用多磁盘阵列系统中,各阵列IO可以并发的特性,根据周期性检测出的阵列IO指标,对跨阵列逻辑资源的数据写入进行动态分配,将现有串行的写入方式转换为多阵列并行写入,每个阵列中写入的数据根据检测的阵列IO指标进行计算得到,使IO指标高的阵列分配较多的写入数据,IO指标低的阵列分配较少的写入数据,从而提高多磁盘阵列系统中跨阵列逻辑资源的数据写入效率,提高多磁盘阵列系统的整体写入性能。
图2为本发明实施例的多磁盘阵列系统的数据写入方法总体流程图,如图2所示,该方法包括:
步骤201,周期性检测多磁盘阵列系统中每个磁盘阵列的数据写入指标。
步骤202,根据所述数据写入指标计算每个磁盘阵列的写入性能。
步骤203,将数据写入跨阵列逻辑资源时,根据所述写入性能将需写入的数据分配给所述逻辑资源包含的所有可用阵列。
步骤204,根据所述分配将需写入的数据并行写入所述所有可用阵列。
步骤201中,影响磁盘阵列的数据写入性能的数据写入指标包括很多,如寻道时间、带宽、IOPS、IO响应时间等,其中比较重要的有带宽、每秒IO次数(IOPS,IO per seconds)、IO响应时间这三项,其中,带宽是指单位时间内能够传送的数据量,单位一般是兆字节/每秒(MB/S),带宽越大性能越好;IOPS是指阵列每秒可接受多少次主机发出的访问,单位为次,IOPS越大性能越好;IO响应时间指的是存储系统响应IO的能力,单位一般为纳秒(ns),IO响应时间越短性能越好。
具体检测哪些数据写入指标可以根据需要而定,较佳的是检测带宽、IOPS、IO响应时间这三项,具体磁盘阵列的数据写入指标的监测方法可以参考现有成熟技术,这里不再赘述。另外,具体检测周期任意,例如10分钟一次,可以根据具体需要设定。
步骤202中,根据写入性能指标确定写入性能的具体方法是任意的,可以根据具体检测的性能指标和对不同指标的侧重程度确定,由于检测的指标的组合方式很多,无法一一例举,以下仅以检测带宽、IOPS、IO响应时间这三项指标为例,举一个例子:
a=b×Qb×Wb+i×Qi×Wi+t×Wt÷Qt
其中,a为阵列的写入性能,b为带宽,i为IOPS,t为IO响应时间。
由于带宽、IOPS、IO响应时间的单位和数量级都不同,为了能够统一地进行计算,还需要为每一个指标设置一个能力系数,用于统一单位和数量级,如公式中带宽的能力系数为Qb、IOPS的能力系数为Qi、IO响应时间的能力系数为Qt;另外,检测带宽、IOPS、IO响应时间这三项指标对于影响写入性能的重要程度不同,因此为了准确计算写入性能a,还可以为每个性能指标设置权重系数,如公式中带宽的权重系数为Wb、IOPS的权重系数为Wi、IO响应时间的权重系数为Wt。由于IO响应时间与写入性能呈反比,故公式中是除以能力系数Qt。当然,如不考虑性能指标对综合写入性能的影响,权重系数并不是必须的,另外,如果检测的性能指标的单位和数量级相同时,则也无需能力系数,特别是如果检测的性能指标只有一个,则无需计算,直接将该性能指标确定为写入性能即可。
能力系数和权重系数的具体数值可以根据磁盘阵列实际写入指标的数量级或经验来设定,例如根据目前一般磁盘阵列中b、i、t的数量级,可以设定能力系数Qb=1,Qi=0.02,Qt=0.5,而一般对于写入性能的影响,带宽是最重要的指标,因此可以设定权重系数Wb=0.7,Wi=0.1,Wt=0.2。如果测得b=300、i=20000、t=50,则根据上述公式可以计算出,该磁盘阵列的写入性能a=300×1×0.7+20000×0.02×0.1+50×0.2÷0.5=270。
步骤203中,逻辑资源所包含的可用阵列是指所有被逻辑资源占用空间的磁盘阵列。本步骤中的具体分配方法任意,可以是根据所述写入性能,计算所述可用阵列中每个阵列的写入性能占所述所有可用阵列的写入性能总合的比例,将需写入的数据按照所述比例分配给所述可用阵列中的每个阵列,具体可以根据公式r=a÷p×100%对数据的分配比例r进行计算。
其中,a为阵列的写入性能,p为所述所有可用阵列的写入性能相加的总合。如果逻辑资源跨越3个RAID,分别为RAIDx、RAIDy、RAIDz,则对于RAIDx来说,其分配的需写入的数据的比例rx=ax÷(ax+ay+az)×100%;RAIDy分配的数据比例ry=ay÷(ax+ay+az)×100%;RAIDz分配的数据比例rz=az÷(ax+ay+az)×100%。
当然也可以不经过计算,按照写入性能大小以预设的固定比例分配,如跨3个阵列的逻辑资源,性能最高的阵列固定分配50%的数据,性能中等的阵列固定分配35%的数据,性能最差的阵列固定分配15%的数据。
在分配好每个可用阵列中需要写入的数据比例后,就可以根据该分配比例对每个可用阵列同时进行并行的数据写入,从而提高数据写入的效率。
图3为本发明实施例的并行写入原理示意图,如图3所示,有1~10共10个数据块需要写入跨3个RAID的逻辑资源中,经分配确定RAIDx分配50%的数据即5个数据块,RAIDy分配30%的数据即3个数据块,RAIDz分配20%的数据即2个数据块,此时,RAIDx、RAIDy、RAIDz将同时进行写入,RAIDx、RAIDy、RAIDz分别写入5、3、2个数据块,当然,具体哪些数据块写入哪个RAID可以是任意的,也可以按照数据块的请求顺序或者按照地址顺序。
图4为本发明较佳实施例的多磁盘阵列系统的数据写入方法流程图,如图4所示,该流程包括逻辑资源层执行的步骤和RAID控制层执行的步骤,具体如下:
步骤401,根据检测的写入性能指标计算RAID写入性能。
这一步骤由RAID控制层完成,定期更新,具体地,检测到的性能指标可以采用表格的形式进行记录,如下所示:
性能指标 | 开始段 | 中间段 | 末尾段 |
带宽 | |||
IOPS | |||
IO响应时间 |
表一,阵列性能表
表一中将磁盘阵列的性能指标又细分为了开始段、中间段和末尾段,可以根据逻辑资源所占用的存储空间的分布位置取不同段的性能指标进行总体写入性能的计算,当然,分的更细一点或不分都是可以的。根据性能指标进行写入性能计算的具体计算公式可以采用上述的a=b×Qb×Wb+i×Qi×Wi+t×Wt÷Qt,这里不再赘述。
步骤402,获取写入性能计算结果。
步骤403,根据写入性能计算结果应用自动精简配置对需写入的数据进行分配。
自动精简配置是现有的一种让用户根据其预期的未来需求来合理分配虚拟的磁盘存储容量的技术,该技术可以避免提前分配物理磁盘存储空间,提高存储空间利用率。例如:给用户划分的逻辑资源为100G的空间,用户实际应用时只用到20G的空间,那么磁盘阵列系统会先给用户实际划分20G的空间,其他的80G空间可以先给其他用户使用。当用户使用完20G空间需要再用空间时,系统再分配实际空间给该用户。而所有这些操作对用户来讲都是透明的,用户在客户端看到的一直是100G的空间。当然,自动精简配置并不是必须的。
在本步骤中将对数据的分配和自动精简配置的技术相结合,在进行自动精简配置后,对精简后的逻辑资源进行分配,具体分配比例的计算可以采用上述公式r=a÷p×100%,这里不再赘述。
步骤404,根据分配结果进行写入操作。
步骤405,判断是否还需分配存储空间,若是,则返回步骤403,否则结束流程。
本步骤是判断自动精简配置后分配的存储空间是否即将用完,是否还需要为写入的数据分配更多的存储空间。
上述步骤402~405由逻辑资源层完成。
图5为本发明实施例的多磁盘阵列系统结构示意图,包括逻辑资源控制模块501、阵列控制模块502和两个以上的磁盘阵列,为方便描述,图5中以一个磁盘阵列503表示系统中所有的磁盘阵列。
所述阵列控制模块502,与逻辑资源控制模块501及磁盘阵列503相连(与磁盘阵列503相连即表示与系统中每一个磁盘阵列相连),用于周期性检测所述磁盘阵列503的数据写入指标;根据所述数据写入指标确定磁盘阵列503的写入性能;
所述逻辑资源控制模块501,用于将数据写入跨阵列逻辑资源时,根据所述阵列控制模块502确定的写入性能,将需写入的数据分配给所述逻辑资源包含的所有可用阵列;根据所述分配,通过所述阵列控制模块502将需写入的数据并行写入所述磁盘阵列503中逻辑资源包含的所有可用阵列。
图6为本发明实施例的逻辑资源控制模块结构示意图,逻辑资源控制模块包括:
分配比例计算单元601,与所述阵列控制模块502相连,用于根据所述阵列控制模块502确定的写入性能,计算所述可用阵列中每个阵列的写入性能占所述所有可用阵列的写入性能总合的比例;
分配单元602,与所述阵列503相连,用于将需写入的数据按照所述比例分配给所述磁盘阵列503中逻辑资源包含的可用阵列中的每个阵列。
图7为本发明实施例的阵列控制模块结构示意图,阵列控制模块包括:
带宽检测单元701,与所述磁盘阵列503相连,用于检测磁盘阵列503的带宽指标;
IOPS检测单元702,与所述磁盘阵列503相连,用于检测磁盘阵列503的IOPS指标;
IO响应检测单元703,与所述磁盘阵列503相连,用于检测磁盘阵列503的IOPS响应时间指标;
性能计算单元704,与所述带宽检测单元701、IOPS检测单元702和IO响应检测单元703分别相连,用于根据所述带宽检测单元701、IOPS检测单元702和IO响应检测单元703检测到的数据计算所述磁盘阵列503的写入性能。
较佳地,性能计算单元704可以根据以下公式计算阵列的写入性能a,
a=b×Qb×Wb+i×Qi×Wi+t×Wt÷Qt
其中,b为带宽,i为IOPS,t为IO响应时间,Qb、Qi、Wi分别为b、i、t的能力系数,用于统一计算单位;Wb、Wi、Wt分别为b、i、t的权重系数。
较佳地,分配比例计算单元601可以根据以下公式计算所述阵列的写入性能占所有可用阵列的写入性能总合的比例r,
r=a÷z×100%
其中,a为阵列的写入性能,z为所述所有可用阵列的写入性能相加的总合。
上述系统实施例中各模块和单元所执行的操作和实现的功能可以参考方法实施例,这里不再赘述。
由上述的实施例可见,本发明的这种多磁盘阵列系统的数据写入方法和多磁盘阵列系统,可以使整个多磁盘阵列系统中的每个阵列都能够有效运转起来,提高了数据写入效率,并且由于动态的调整数据写入的分布,使得整个系统没有明显的性能瓶颈,不会因为某个磁盘阵列的性能过低而出现短板效应,减少写入性能时好时坏的情况出现。
所应理解的是,以上所述仅为本发明的较佳实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1、一种多磁盘阵列系统的数据写入方法,其特征在于,该方法包括:
周期性检测多磁盘阵列系统中每个磁盘阵列的数据写入指标;
根据所述数据写入指标确定每个磁盘阵列的写入性能;
将数据写入跨阵列逻辑资源时,根据所述写入性能将需写入的数据分配给所述逻辑资源包含的所有可用阵列;
根据所述分配将需写入的数据并行写入所述所有可用阵列。
2、如权利要求1所述的多磁盘阵列系统的数据写入方法,其特征在于,所述分配包括:
根据所述写入性能,计算所述可用阵列中每个阵列的写入性能占所述所有可用阵列的写入性能总合的比例;
将需写入的数据按照所述比例分配给所述可用阵列中的每个阵列。
3、如权利要求2所述的多磁盘阵列系统的数据写入方法,其特征在于,所述数据写入指标包括:带宽、IOPS、IO响应时间。
4、如权利要求3所述的多磁盘阵列系统的数据写入方法,其特征在于,所述根据数据写入指标确定每个磁盘阵列的写入性能的方法包括:
采用公式a=b×Qb×Wb+i×Qi×Wi+t×Wt÷Qt计算磁盘阵列的写入性能a;
其中,b为带宽,i为IOPS,t为IO响应时间,Qb、Qi、Qt分别为b、i、t的能力系数,用于统一计算单位;Wb、Wi、Wt分别为b、i、t的权重系数。
5、如权利要求4所述的多磁盘阵列系统的数据写入方法,其特征在于,所述阵列的写入性能占所有可用阵列的写入性能总合的比例r的计算方法包括:
r=a÷p×100%
其中,a为阵列的写入性能,p为所述所有可用阵列的写入性能相加的总合。
6、一种多磁盘阵列系统,包括逻辑资源控制模块、阵列控制模块和两个以上的磁盘阵列,其特征在于,
所述阵列控制模块,与逻辑资源控制模块及每一个磁盘阵列相连,用于周期性检测所述系统中每个磁盘阵列的数据写入指标;根据所述数据写入指标确定每个磁盘阵列的写入性能;
所述逻辑资源控制模块,用于将数据写入跨阵列逻辑资源时,根据所述阵列控制模块确定的写入性能,将需写入的数据分配给所述逻辑资源包含的所有可用阵列;根据所述分配,通过所述阵列控制模块将需写入的数据并行写入所述所有可用阵列。
7、如权利要求6所述的多磁盘阵列系统,其特征在于,所述逻辑资源控制模块包括:
分配比例计算单元,与所述阵列控制模块相连,用于根据所述阵列控制模块确定的写入性能,计算所述可用阵列中每个阵列的写入性能占所述所有可用阵列的写入性能总合的比例;
分配单元,与所述系统中每一个磁盘阵列相连,用于将需写入的数据按照所述比例分配给所述可用阵列中的每个阵列。
8、如权利要求7所述的多磁盘阵列系统,其特征在于,所述阵列控制模块包括:
带宽检测单元,与所述系统中每一个磁盘阵列相连,用于检测磁盘阵列的带宽指标;
IOPS检测单元,与所述系统中每一个磁盘阵列相连,用于检测磁盘阵列的IOPS指标;
IO响应检测单元,与所述系统中每一个磁盘阵列相连,用于检测磁盘阵列的IOPS响应时间指标;
性能计算单元,与所述带宽检测单元、IOPS检测单元和IO响应检测单元分别相连,用于根据所述带宽检测单元、IOPS检测单元和IO响应检测单元检测到的数据计算所述系统中每一个磁盘阵列的写入性能。
9、如权利要求8所述的多磁盘阵列系统,其特征在于,所述性能计算单元根据以下公式计算阵列的写入性能a,
a=b×Qb×Wb+i×Qi×Wi+t×Wt÷Qt
其中,b为带宽,i为IOPS,t为IO响应时间,Qb、Qi、Qt分别为b、i、t的能力系数,用于统一计算单位;Wb、Wi、Wt分别为b、i、t的权重系数。
10、如权利要求9所述的多磁盘阵列系统,其特征在于,所述分配比例计算单元根据以下公式计算所述阵列的写入性能占所有可用阵列的写入性能总合的比例r,
r=a÷p×100%
其中,a为阵列的写入性能,p为所述所有可用阵列的写入性能相加的总合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2009100857362A CN101566932A (zh) | 2009-05-27 | 2009-05-27 | 多磁盘阵列系统的数据写入方法及多磁盘阵列系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2009100857362A CN101566932A (zh) | 2009-05-27 | 2009-05-27 | 多磁盘阵列系统的数据写入方法及多磁盘阵列系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101566932A true CN101566932A (zh) | 2009-10-28 |
Family
ID=41283096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2009100857362A Pending CN101566932A (zh) | 2009-05-27 | 2009-05-27 | 多磁盘阵列系统的数据写入方法及多磁盘阵列系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101566932A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436356A (zh) * | 2011-12-12 | 2012-05-02 | 成都市华为赛门铁克科技有限公司 | 写页面空间分配方法和装置 |
WO2013060216A1 (zh) * | 2011-10-27 | 2013-05-02 | 忆正科技(武汉)有限公司 | 一种混合存储控制系统和方法 |
CN103577115A (zh) * | 2012-07-31 | 2014-02-12 | 华为技术有限公司 | 数据的排布处理方法和装置 |
CN104461914A (zh) * | 2014-11-10 | 2015-03-25 | 浪潮电子信息产业股份有限公司 | 一种自动精简配置的自适应优化方法 |
CN111782135A (zh) * | 2019-06-14 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 数据存储方法、系统、数据节点和计算机可读存储介质 |
-
2009
- 2009-05-27 CN CNA2009100857362A patent/CN101566932A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013060216A1 (zh) * | 2011-10-27 | 2013-05-02 | 忆正科技(武汉)有限公司 | 一种混合存储控制系统和方法 |
CN102436356A (zh) * | 2011-12-12 | 2012-05-02 | 成都市华为赛门铁克科技有限公司 | 写页面空间分配方法和装置 |
CN103577115A (zh) * | 2012-07-31 | 2014-02-12 | 华为技术有限公司 | 数据的排布处理方法和装置 |
CN103577115B (zh) * | 2012-07-31 | 2016-09-14 | 华为技术有限公司 | 数据的排布处理方法、装置和服务器 |
CN104461914A (zh) * | 2014-11-10 | 2015-03-25 | 浪潮电子信息产业股份有限公司 | 一种自动精简配置的自适应优化方法 |
CN111782135A (zh) * | 2019-06-14 | 2020-10-16 | 北京京东尚科信息技术有限公司 | 数据存储方法、系统、数据节点和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102455776B (zh) | 用于降低能量消耗并优化工作负荷和性能的方法与系统 | |
WO2018019119A1 (zh) | 一种面向连续数据存储的动态局部并行数据布局方法及装置 | |
Zhang et al. | Adaptive data migration in multi-tiered storage based cloud environment | |
CN101526882B (zh) | 独立磁盘冗余阵列子系统中逻辑单元重建的方法及装置 | |
CN104317742B (zh) | 一种优化空间管理的自动精简配置方法 | |
CN111158587B (zh) | 基于存储池虚拟化管理的分布式存储系统及数据读写方法 | |
CN101727293B (zh) | 一种固态硬盘ssd存储的设置方法、装置和系统 | |
CN109358809B (zh) | 一种raid数据存储系统及方法 | |
CN103279429A (zh) | 一种应用感知的分布式全局共享缓存分区方法 | |
CN111367469B (zh) | 一种分层存储数据迁移方法和系统 | |
CN101566932A (zh) | 多磁盘阵列系统的数据写入方法及多磁盘阵列系统 | |
CN103761051A (zh) | 一种基于持续数据多输入输出流并发写入性能优化方法 | |
CN105988727A (zh) | 一种基于raid的存储方法和存储装置 | |
WO2016107167A1 (zh) | 存储架构的创建方法、存储访问方法和存储系统 | |
CN105022587A (zh) | 一种设计磁盘阵列的方法和存储装置 | |
KR20150089538A (ko) | 인-메모리 데이터 관리 장치 및 인-메모리 데이터 관리 방법 | |
CN102207830A (zh) | 一种缓存动态分配管理方法及装置 | |
CN101373445A (zh) | 一种内存调度方法及装置 | |
CN104731517A (zh) | 一种存储池容量分配方法和装置 | |
CN111782135A (zh) | 数据存储方法、系统、数据节点和计算机可读存储介质 | |
CN102685219A (zh) | San存储系统中通过动态扩容提高存储资源利用率的方法 | |
CN103699340B (zh) | 一种请求处理方法及设备 | |
JP5962621B2 (ja) | ストレージ装置及びその制御方法、並びにストレージ制御プログラム | |
CN106775453A (zh) | 一种混合存储阵列的构建方法 | |
CN109783000A (zh) | 一种数据处理方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Open date: 20091028 |