CN113672175A - 分布式对象存储方法、装置和设备及计算机存储介质 - Google Patents

分布式对象存储方法、装置和设备及计算机存储介质 Download PDF

Info

Publication number
CN113672175A
CN113672175A CN202110907042.3A CN202110907042A CN113672175A CN 113672175 A CN113672175 A CN 113672175A CN 202110907042 A CN202110907042 A CN 202110907042A CN 113672175 A CN113672175 A CN 113672175A
Authority
CN
China
Prior art keywords
storage
storage area
target
area set
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110907042.3A
Other languages
English (en)
Inventor
江文龙
徐涛
罗心
周明伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202110907042.3A priority Critical patent/CN113672175A/zh
Publication of CN113672175A publication Critical patent/CN113672175A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0608Saving storage space on storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0643Management of files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0674Disk device
    • G06F3/0676Magnetic disk device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种分布式对象存储方法、装置和设备及计算机存储介质,属于分布式存储技术领域,在该方法中,通过以存储区域集合为管理单位,并将存储区域集合标识,作为终端设备、管理节点设备和存储节点设备三者之间实现存储区域管理的一个传递流转,来实现整个对象存储过程。同时,在进行对象存储时,同时为其分配多个存储节点设备提供的多个存储区域,每个存储区域存储一个分片数据,从而实现分布式对象存储系统对纠删码技术的支持,使得存储系统的磁盘空间利用率更高。

Description

分布式对象存储方法、装置和设备及计算机存储介质
技术领域
本申请涉及计算机技术领域,尤其涉及分布式存储技术领域,提供一种分布式对象存储方法、装置和设备及计算机存储介质。
背景技术
叠瓦式磁记录(Shingled Magnetic Recording,SMR)磁盘是一种领先的下一代磁盘技术,SMR磁盘的相邻磁道之间按序部分重叠,导致了它的读行为虽然与普通(Hard DiskDrive,HDD)机械硬盘无异,但是由于磁道之间按序部分重叠的特性,在进行写入时会导致相重叠磁道数据被覆盖,因而SMR磁盘不支持随机写和原地更新写,仅支持从头到尾的顺序写入。
但是,正是由于SMR磁盘这种物理上的特点,即相邻磁道之间按序部分重叠,在相同的面积内容纳了更多的磁道,从而SMR磁盘在单位存储介质上的存储密度更高,相应的,存储成本也就更低,从而SMR磁盘在价格上有着无法规避的优势,在分布式对象存储系统支持SMR磁盘也就是势在必行的,但是目前针对如何实现在分布式对象存储系统支持SMR磁盘的问题,并没有较好的解决方案。
发明内容
本申请实施例提供一种分布式对象存储方法、装置和设备及计算机存储介质,用于实现在分布式对象存储系统中实现对SMR磁盘的存储管理。
一方面,提供一种分布式对象存储方法,应用于分布式对象存储系统包括的终端设备中,所述方法包括:
基于待存储的目标对象,向管理节点设备发送存储空间申请请求,所述存储空间申请请求携带所述目标对象的对象属性信息;
接收所述管理节点设备响应于所述存储空间申请请求返回的存储区域集合标识,以及所述存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;所述存储区域集合标识是所述管理节点设备根据所述对象属性信息生成的,且用于唯一标识存储所述目标对象的存储区域集合;
基于所述N个存储节点设备的网络标识,分别向所述N个存储节点设备发送分片数据写入请求,每个分片数据写入请求携带所述存储区域集合标识,且用于请求在相应的存储节点设备存储所述目标对象的一个分片数据。
一方面,提供一种分布式对象存储方法,应用于分布式对象存储系统包括的管理节点设备中,所述方法包括:
基于终端设备发送的存储空间申请请求携带的对象属性信息,生成待存储的目标对象的存储区域集合标识,所述存储区域集合标识唯一标识存储所述目标对象的存储区域集合;
基于预先设定的负载均衡策略,从所述分布式对象存储系统包括的多个存储节点设备中选取N个存储节点设备,其中,所述存储区域集合标识对应的N个目标存储区域来源于所述N个存储节点设备,且一个存储区域来源于一个存储节点设备;
将所述存储区域集合标识,以及所述N个存储节点设备的网络标识返回给所述终端设备;
接收所述N个存储节点设备各自上报的存储区域属性信息,并基于存储区域属性信息更新自身存储的存储映射关系,所述存储区域属性信息用于指示与所述存储区域集合标识关联的存储区域标识,所述存储映射关系用于指示各个存储区域集合标识各自对应的存储区域属性信息。
一方面,提供一种分布式对象存储方法,应用于分布式对象存储系统包括的存储节点设备中,所述方法包括:
接收终端设备发送的分片数据写入请求,所述分片数据写入请求携带待存储的目标对象的存储区域集合标识,且所述分片数据写入请求携带所述目标对象的一个分片数据;
基于所述分片数据写入请求以及自身包括的存储磁盘的使用情况,从自身包括的存储磁盘中选取出目标存储区域,并将所述分片数据存储至所述目标存储区域中;以及,
将所述存储区域集合标识与所述目标存储区域进行关联;
向管理节点设备上报存储区域属性信息,所述存储区域属性信息用于指示本存储节点设备中,与所述存储区域集合标识关联的所述目标存储区域的存储区域标识。
一方面,提供一种分布式对象存储装置,应用于分布式对象存储系统包括的终端设备中,所述装置包括:
请求单元,用于基于待存储的目标对象,向管理节点设备发送存储空间申请请求,所述存储空间申请请求携带所述目标对象的对象属性信息;
接收单元,用于接收所述管理节点设备响应于所述存储空间申请请求返回的存储区域集合标识,以及所述存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;所述存储区域集合标识是所述管理节点设备根据所述对象属性信息生成的,且用于唯一标识存储所述目标对象的存储区域集合;
数据写入单元,用于基于所述N个存储节点设备的网络标识,分别向所述N个存储节点设备发送分片数据写入请求,每个分片数据写入请求携带所述存储区域集合标识,且用于请求在相应的存储节点设备存储所述目标对象的一个分片数据。
可选的,所述请求单元,还用于:
基于待存储的目标文件,向所述管理节点设备发送文件创建请求,所述文件创建请求用于请求为所述目标文件分配文件标识;
接收所述管理节点设备响应于所述文件创建请求返回的文件标识,所述文件标识唯一标识所述目标文件;
基于所述目标文件所包括的目标对象,向所述管理节点设备发送所述存储空间申请请求,且所述存储空间申请请求携带的所述对象属性信息包括所述文件标识与所述目标对象的对象标识。
可选的,所述请求单元,还用于:
基于待存储的目标数据类型,向所述管理节点设备发送存储空间创建请求,所述存储空间创建请求用于请求为自身分配存储空间标识;
接收所述管理节点设备响应于所述存储空间创建请求返回的存储空间标识,所述存储空间标识唯一标识所述终端设备所输出的目标数据类型的数据;
可选的,所述装置还包括文件读取单元;
所述请求单元,还用于:基于待读取的目标文件名称,向所述管理节点设备发送文件检索请求;
所述接收单元,还用于接收所述管理节点设备响应于所述文件检索请求,返回的各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;
所述文件读取单元,用于针对所述各个对象中每个对象,分别向该对象对应的N个存储节点设备发送分片数据获取请求,所述分片数据获取请求携带该对象的存储区域集合标识;以及,
接收各个存储节点设备响应于相应的分片数据获取请求返回的分片数据,并基于每个对象的分片数据获得相应的对象数据,以获得所述各个对象的对象数据组成的目标文件。
可选的,所述存储空间申请请求还携带存储所述目标对象所使用的数据编码类型,且存储节点设备的数量N是根据所述数据编码类型确定的;
则所述文件写入单元,具体用于:
基于所述数据编码类型,对所述目标对象进行编码,获得所述目标对象的N个分片数据;
基于所述N个存储节点设备的网络标识,将获得的N个分片数据分别携带于分片数据写入请求中发送给相应的存储节点设备。
一方面,提供一种分布式对象存储装置,应用于分布式对象存储系统包括的管理节点设备中,所述装置包括:
标识生成单元,用于基于终端设备发送的存储空间申请请求携带的对象属性信息,生成待存储的目标对象的存储区域集合标识,所述存储区域集合标识唯一标识存储所述目标对象的存储区域集合;
存储节点管理单元,用于基于预先设定的负载均衡策略,从所述分布式对象存储系统包括的多个存储节点设备中选取N个存储节点设备,其中,所述存储区域集合标识对应的N个目标存储区域来源于所述N个存储节点设备,且一个存储区域来源于一个存储节点设备;
收发单元,用于将所述存储区域集合标识,以及所述N个存储节点设备的网络标识返回给所述终端设备;以及,
接收所述N个存储节点设备各自上报的存储区域属性信息,并基于存储区域属性信息更新自身存储的存储映射关系,所述存储区域属性信息用于指示与所述存储区域集合标识关联的存储区域标识,所述存储映射关系用于指示各个存储区域集合标识各自对应的存储区域属性信息。
可选的,所述标识生成单元,还用于:
响应于所述终端设备发送的文件创建请求,为所述目标文件分配文件标识,所述文件标识唯一标识所述目标文件;所述目标文件包括所述目标对象;
基于所述文件标识与所述目标对象的对象标识,生成所述存储区域集合标识。
可选的,所述装置还包括检索单元,用于:
基于所述终端设备发送的文件检索请求携带的目标文件名称,在所述存储映射关系中查询与目标文件包括的各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;
将所述各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个存储节点设备的网络标识发送给所述终端设备。
可选的,所述存储映射关系缓存于所述管理节点设备的内存中,且,所述存储映射关系采用多个子表格进行存储,每个子表格存储所述存储映射关系中的部分;
则所述检索单元,具体用于:
采用并行处理的方式,分别对所述多个子表格进行遍历查询,以获取所述各个对象的存储区域集合标识。
一方面,提供一种分布式对象存储装置,应用于分布式对象存储系统包括的存储节点设备中,所述装置包括:
接收单元,用于接收终端设备发送的分片数据写入请求,所述分片数据写入请求携带待存储的目标对象的存储区域集合标识,且所述分片数据写入请求携带所述目标对象的一个分片数据;
存储区域管理单元,用于基于所述分片数据写入请求以及自身包括的存储磁盘的使用情况,从自身包括的存储磁盘中选取出目标存储区域,并将所述分片数据存储至所述目标存储区域中;以及,将所述存储区域集合标识与所述目标存储区域进行关联;
发送单元,用于向管理节点设备上报存储区域属性信息,所述存储区域属性信息用于指示本存储节点设备中,与所述存储区域集合标识关联的所述目标存储区域的存储区域标识。
可选的,所述存储磁盘为叠瓦式磁记录SMR磁盘。
一方面,提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一种方法的步骤。
一方面,提供一种计算机存储介质,其上存储有计算机程序指令,该计算机程序指令被处理器执行时实现上述任一种方法的步骤。
一方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述任一种方法的步骤。
本申请实施例中,在进行目标对象的存储时,需要向管理节点设备申请存储空间,管理节点设备为其分配存储节点设备,并基于待存储的目标对象的对象属性信息,生成该目标对象的存储区域集合标识,从而终端设备基于该存储区域集合标识向存储节点设备发起分片数据存储,存储节点设备为目标对象分配自身包括的存储磁盘上的存储区域,并将该存储区域与存储区域集合标识进行绑定,同时上报管理节点设备,管理节点设备更新该存储区域集合标识的映射关系。从而,本申请实施例中通过以存储区域集合为管理单位,并将存储区域集合标识,作为终端设备、管理节点设备和存储节点设备三者之间实现存储区域管理的一个传递流转,来实现整个对象存储过程。同时,在进行对象存储时,同时为其分配多个存储节点设备提供的多个存储区域,每个存储区域存储一个分片数据,从而实现分布式对象存储系统对纠删码技术的支持,使得存储系统的磁盘空间利用率更高。
附图说明
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的应用场景图;
图2为本申请实施例提供的分布式对象存储系统的系统架构示意图;
图3为本申请实施例提供的分布式对象存储方法的一种流程示意图;
图4为本申请实施例提供的ZG的组成示意图;
图5为本申请实施例提供的分布式对象存储方法的另一流程示意图;
图6为本申请实施例提供的文件读取过程的流程示意图;
图7为本申请实施例提供的分布式对象存储装置的一种结构示意图;
图8为本申请实施例提供的分布式对象存储装置的另一种结构示意图;
图9为本申请实施例提供的分布式对象存储装置的又一种结构示意图;
图10为本申请实施例提供的计算机设备的一种结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
为便于理解本申请实施例提供的技术方案,这里先对本申请实施例使用的一些关键名词进行解释:
SMR磁盘:SMR磁盘将磁道划分为多个带(Band),即连续磁道所构成的连续写入的区域,每个区域为一个需要顺序写入的基本单元,Band是SMR磁盘的物理概念,对应的逻辑概念称为区域(Zone),一个Zone的大小一般为256MB,在Zone内数据的读写只支持顺序写,不支持随机写,也就是按照写指针位置依次向后移动,但各个Zone之间是独立的,互不影响。由于SMR盘仍然确保可以从磁道的未重叠部分读取数据,Zone内的数据读取依旧可以随机进行。SMR盘在生产制造时就划分好了分区,通过在Zone之间出留出较大的间隔来标识Zone的起始位置。
存储区域集合(zone group):由不同的存储节点设备上的磁盘的存储区域构成的集合,为本申请实施例的分布式存储系统的存储单位,每个存储区域集合由唯一的存储区域集合标识(zone group ID,ZGID)进行标识。
数据冗余保护策略:在分布式对象存储系统中,为提升数据可靠性保证数据安全,一般需要采用数据冗余保护策略进行数据冗余,常见的数据冗余保护策略有两种形式:多副本模式和纠删码(erasure coding,EC)模式。其中,多副本模式,数据块分别存储在不同的地方来实现冗余备份,以3副本为例,磁盘空间利用率只有33%,冗余度比较高,无疑会增加存储空间的消耗,增加存储成本,但是它却有着更安全,读取速度更快的特点;EC模式,是通过纠删码算法将真实数据进行编码得到冗余,并将真实数据和冗余数据一同存储到系统中,以达到数据冗余的目的。因为纠删码对于数据读写都要计算校验值,存在较高的中央处理器(central processing unit,CPU)资源开销,但是纠删码可以提升存储系统的空间利用率,降低存储成本。以常见EC模式4+1举例,系统的磁盘空间利用率能达到80%,远远高于现有常用的3副本的利用率,有着自己无法忽视的成本优势。
利用纠删码技术进行存储时,首先对原始数据进行分片,然后基于分片编码生成备份数据,最后将原始数据和备份数据分别写入不同的存储介质。数据恢复也称为解码过程,是编码的逆运算,为了能够进行数据恢复,要求编码采用的方法一定是可逆的。
分布式存储:是将数据分散存储在多台独立的设备上的存储方式,传统的网络存储系统采用集中的存储服务器存放所有数据,存储服务器成为系统性能的瓶颈,也是可靠性和安全性的焦点,不能满足大规模存储应用的需要,分布式网络存储系统采用可扩展的系统结构,利用多台存储服务器分担存储负荷,不但提高了系统的可靠性、可用性和存取效率,还易于扩展。
对象(object):对象是分布式对象存储系统中的最小存储单位,每个对象拥有唯一的对象标识(object ID)。
文件(file):一个文件可由多个对象组成,每个文件采用唯一的文件标识(fileID)进行标识。例如针对一个视频文件而言,每个对象可以为该视频文件中的片段。
桶(bucket):可以理解为是逻辑上的文件夹,用于存储对象的容器。例如针对与安防监控视频的分布式对象存储系统而言,可以为一个监控设备创建一个视频桶,用于存储该监控设备拍摄的视频,而该监控设备在一段时间内拍摄的视频可以形成为视频文件,且通过将该视频文件划分为多个视频对象在分布式对象存储系统中进行存储,此外,还可以为该监控设备创建一个图像桶,用于存储该监控设备拍摄的图像,也就是说,每个桶可以唯一对应于一个监控设备,用于存储该监控设备的一种类型的数据,且每个桶通过桶标识(bucket ID)进行标识。
元数据(Metadata):又称中介数据、中继数据,为描述数据的数据(data aboutdata),主要是描述数据属性(property)的信息,用来支持如指示存储位置、历史数据、资源查找、文件记录等功能。元数据算是一种电子式目录,为了达到编制目录的目的,必须在描述并收藏数据的内容或特色,进而达成协助数据检索的目的。在分布式存储系统中,首先,元数据能提供基于用户的信息,如记录数据项的业务描述信息的元数据能帮助用户使用数据。其次,元数据能支持系统对数据的管理和维护,如关于数据项存储方法的元数据能支持系统以最有效的方式访问数据。
下面对本申请实施例的设计思想进行简要介绍。
目前还未有成熟的类似支持SMR磁盘的分布式存储系统,但是SMR磁盘在实际项目部署中有着无可比拟的成本优势,因此SMR磁盘的实施是势在必行的。
此外,目前主流的分布式存储系统,如(Hadoop Distributed File System,HDFS)等,为了提升数据安全性,多使用多副本模式,虽然也存在支持EC模式的系统,但是其存储的EC分片数据,都是基于标准的HDD磁盘或SSD磁盘基于标准文件系统进行数据的读写,并没有如何实现纳管SMR磁盘Zone的方案。多副本模式和EC模式本身没有优劣之分,只是适用于不同的业务场景,例如对于互联网领域而言,存储数据的单位数据价值密度高,因而更倾向于采用多副本模式,而对于安防领域而言,因为安防领域的监控录像的单位数据价值密度并没有互联网那么高,多副本模式极低的存储空间利用率是用户所无法接受的。
基于此,本申请实施例提供了一种分布式对象存储方法、装置和设备及计算机存储介质。在该方法中,在进行目标对象的存储时,需要向管理节点设备申请存储空间,管理节点设备为其分配存储节点设备,并基于待存储的目标对象的对象属性信息,生成该目标对象的存储区域集合标识,从而终端设备基于该存储区域集合标识向存储节点设备发起分片数据存储,存储节点设备为目标对象分配自身包括的存储磁盘上的存储区域,并将该存储区域与存储区域集合标识进行绑定,同时上报管理节点设备,管理节点设备更新该存储区域集合标识的映射关系。
从而,本申请实施例中通过以存储区域集合为管理单位,并将存储区域集合标识,作为终端设备、管理节点设备和存储节点设备三者之间实现存储区域管理的一个传递流转,来实现整个对象存储过程,进而能够在分布式对象存储系统中实现在SMR磁盘的Zone进行对象的存储和管理。
同时,在进行对象存储时,同时为其分配多个存储节点设备提供的多个存储区域,每个存储区域存储一个分片数据,从而实现分布式对象存储系统对纠删码技术的支持,使得存储系统的磁盘空间利用率更高。
此外,本申请实施例中,分布式对象存储系统通过基于ZoneGroup设计,一组初始化全新的Zone通过ZGID关联起来,将纠删码对应的分片数据分别并发批量写入这组Zone,并提供基于ZG层级进行统一的负载、管理的能力,并通过对原生SMR磁盘Zone空间的策略管理,来实现对纠删码技术的支持的能力。同时,管理节点ZG全局缓存数据不持久化,通过存储节点实时和周期性的Zone上报,来达到管理节点构造和维护ZG缓存目的,即管理节点通过对整个存储系统已用ZG进行内存态的缓存,以实现对系统中所有SMR磁盘Zone的实时管理更新的功能,为了解决大规模系统中ZG数量庞大问题,管理节点内部ZG缓存进行内存态的分表Hash散列存储,以提供更高效的查询和遍历性能,并且,管理节点通过控制ZGID的生成,以及各模块内部ZGID的透传,实现实时业务数据的读写功能。
在介绍完本申请实施例的设计思想之后,下面对本申请实施例的技术方案能够适用的应用场景做一些简单介绍,需要说明的是,以下介绍的应用场景仅用于说明本申请实施例而非限定。在具体实施过程中,可以根据实际需要灵活地应用本申请实施例提供的技术方案。
本申请实施例提供的方案可以适用于大多数分布式对象存储场景中,尤其适用于针对安防领域的分布式对象存储系统。如图1所示,为本申请实施例提供的一种应用场景图,在该场景中,包括终端设备101、管理节点设备102和存储节点设备103。
终端设备101为需要进行数据存储的任何设备,例如可以为手机、平板电脑(PAD)、笔记本电脑、台式电脑、智能电视以及监控设备等。终端设备101上可以安装用于存储和检索的软件开发工具包(Software Development Kit,SDK),其中,SDK封装了分布式对象存储系统的对外接口,以调用这些接口实现与分布式对象存储系统的交互,SDK可以为单独的客户端,也可以嵌入到任意的客户端中。
管理节点设备102用于提供分布式对象存储系统的元数据管理服务,响应整个对象存储系统的元数据请求,内部保存了整个系统的元数据镜像,同时负责存储节点设备103的负载均衡,包括其他的一些文件恢复的控制逻辑。管理节点设备102例如可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统。例如,管理节点设备102可以帮扩主设备和备用设备,以提升系统管理服务的可靠性。
存储节点设备103提供真实的文件存储服务,对外提供数据流写入响应,纳管磁盘以及周期性数据块扫描上报等功能。每个存储节点设备103上可以包括多个物理存储磁盘,例如可以采用SMR磁盘,每个物理存储磁盘包括多个存储区域。
在可能的一种实施方式中,分布式对象存储系统可以是针对监控系统而部署的存储系统,那么终端设备101可以为部署于各个监控区域的监控设备,且在这些监控设备上已经设置好SDK,当监控设备拍摄监控视频时,则可以调用SDK将这些监控视频存储至各个存储节点设备103上。
在另一种可能的实施方式中,分布式对象存储系统可以是针对监控系统而部署的存储系统,终端设备101可以与监控设备连接,从而接收监控设备拍摄的视频流,并调用自身的SDK将视频流存储至各个存储节点设备103上。
终端设备101、管理节点设备102和存储节点设备103之间可以通过一个或者多个网络104进行直接或间接的通信连接。该网络104可以是有线网络,也可以是无线网络,例如无线网络可以是移动蜂窝网络,或者可以是无线保真(Wireless-Fidelity,WIFI)网络,当然还可以是其他可能的网络,本申请实施例对此不做限制。
需要说明的是,在本申请实施例中,终端设备101的数量可以为一个,也可以为多个,同样的,存储节点设备103的数量也可以为一个,也可以为多个,也就是说对于终端设备101或者存储节点设备103的数量并不进行限制。
当然,本申请实施例提供的方法并不限用于图1所示的应用场景中,还可以用于其他可能的应用场景,本申请实施例并不进行限制。对于图1所示的应用场景的各个设备所能实现的功能将在后续的方法实施例中一并进行描述,在此先不过多赘述。
参见图2所示,为本申请实施例提供的分布式对象存储系统的系统架构示意图。其中,分布式对象存储系统包括SDK客户端、管理节点(Meta Data service,MDS)和多个存储节点(data node,DN)。
SDK客户端可部署于终端设备中,即有访问对象存储系统需求的终端设备中,例如监控设备或者与监控设备连接的终端设备中。
管理节点即部署于管理节点设备中,用于对整个对象存储系统进行元数据管理,响应整个对象存储系统的元数据请求,内部保存了整个系统的元数据镜像,同时负责存储节点的负载均衡,包括其他的一些文件恢复的控制逻辑。一般而言,为了提升数据管理的可靠性,管理节点可以包括主节点,以及一个或者多个备用节点。
存储节点提供文件存储服务,对外提供数据流写入响应,纳管磁盘以及周期性数据块扫描上报等功能。
在进行对象存储时,调用SDK客户端提供的访问接口向管理节点进行存储空间申请,并携带待存储对象的对象属性信息,例如对象标识和文件标识等,管理节点基于负载均衡策略,为其分配存储节点,并基于对象属性信息生成相应的存储区域集合标识ZGID,ZGID用于唯一标识该对象的存储区域集合,管理节点将ZGID返回给SDK客户端,同时将分配的存储节点的网络标识返回,例如网际互连协议(Internet Protocol,IP)地址。
SDK客户端基于网络标识向各个存储节点发起真实的数据存储,并携带ZGID,各个存储节点在接收到ZGID时,基于自身的负载均衡策略,选取一个物理存储磁盘的一个存储区域,将其与ZGID进行关联,并将待存储的对象写入磁盘,同时,还将该存储区域与ZGID的关联关系上报给管理节点,管理节点更新自身存储与ZGID的映射关系,以便后续基于该映射关系检索该对象。
参见图2所示,SDK客户端与管理节点,以及管理节点与存储节点之间的交互为信令流,信令流为不涉及对象数据的信息流,主要为对象存储系统中系统功能有关的信息传递,SDK客户端与存储节点之间的交互为数据流,数据流为真实的对象数据存储和读取的信息流,即向存储节点中写入数据,或者从存储节点读取数据,为便于分辨,在图2中信息流与数据流以不同的方式进行示出。
下面,结合图1的应用场景以及图2的系统架构对本申请实施例提供的分布式对象存储方法进行介绍,请参见图3,为本申请实施例提供的分布式对象存储方法的流程示意图,该方法可以通过图1的各个设备结合来执行,该方法的流程介绍如下。
步骤301:SDK客户端向MDS发送存储空间申请请求,MDS接收存储空间申请请求。
本申请实施例中,当需要进行对象存储时,则可以调用SDK来实现对象存储过程。
具体的,SDK客户端可以基于待存储的目标对象,向管理节点设备发送存储空间申请请求,存储空间申请请求携带目标对象的对象属性信息,对象属性信息例如可以包括object ID以及file ID。
示例性的,以针对安防监控的监控视频存储为例,监控设备拍摄监控视频后,需要逐段的将监控视频存储至对象存储系统中,例如针对一段10分钟的监控视频文件A,其可以进一步划分5个视频对象B来进行存储,那么针对每一个视频对象B,在进行存储时,都可以利用SDK客户端向MDS发起存储空间申请请求,并在请求中携带监控视频文件A的file ID和视频对象B的object ID,file ID是SDK客户端在存储监控视频文件A前,请求MDS为监控视频文件A分配的,能够唯一标识监控视频文件A,同样的,一个object ID则唯一标识监控视频文件A的一个视频对象B。
步骤302:MDS为目标对象生成存储区域集合标识,并为其分配DN列表。
本申请实施例中,MDS接收到存储空间申请请求后,基于其中携带的对象属性信息,为目标对象生成存储区域集合标识ZGID,该ZGID唯一标识存储目标对象的存储区域集合(Zone Group,ZG)。
例如,当对象属性信息包括file ID和object ID时,MDS根据空间申请的file Id和object Id封装得到一个ZG的标记类型,即ZGID,ZGID唯一标识了一个ZoneGroup。
参见图4所示,为本申请实施提供的一个ZG的组成示意图,其中,每个存储节点上设置有多个盘位,每个盘位用于设置一个物理存储磁盘Disk,例如DN1上可以放置Disk1~Diskn,每个物理存储磁盘包括多个存储区域。以4+1的EC模式为例,即一个对象存储5个分片数据,那么一个对象的ZG需要5个存储区域Zone,即图4所示的Zone1~Zone5,每一个Zone来源于一个存储节点上的一个物理存储磁盘,如图4所示的ZG包括的Zone1~Zone5分别来源与DN1~DN5。
本申请实施例中,为了提升磁盘的空间利用率,采用空间利用率更高的SMR磁盘,那么每个存储区域即可以为SMR磁盘的一个Zone,当然,也可以采用与SMR磁盘具有类似特性的磁盘。
本申请实施例中,存储空间申请请求还携带存储目标对象所使用的数据编码类型,且存储节点设备的数量N是根据数据编码类型确定的。数据编码类型具体是指采用的EC模式,在具体应用时,ZG内部Zone的个数N根据不同的EC模式可以在申请空间时动态调整,也就是说,基于不同的EC模式,MDS会为其分配包含不同数量的ZoneGroup,例如SDK客户端A采用的EC模式为8+1的EC模式,SDK客户端B采用的EC模式为4+1的EC模式,那么为SDK客户端A的存储对象分配的ZoneGroup包含9个Zone,而为SDK客户端B的存储对象分配的ZoneGroup包含5个Zone。
本申请实施例中,MDS还会为目标对象分配DN列表,DN列表中为相应数量的存储节点的网络标识,例如针对图4的示例而言,DN列表则包括5个存储节点的网络标识。
具体的,MDS可以基于预先设定的负载均衡策略,从分布式对象存储系统包括的多个DN中选取N个存储节点,其中,ZGID对应的N个目标存储区域来源于N个存储节点,且一个存储区域来源于一个存储节点。
沿用上述例子,则MDS可以基于一定的负载均衡策略,例如轮询策略、权重选择策略或者负载选择策略等,从所有的DN中选取出5个负载较低的DN,从而由这5个DN包括的Zone构成一个ZoneGroup。
但需要说明的是,虽然MDS已经分配了ZGID以及DN列表,但是当前阶段仅能够明确该ZGID对应的Zone所属的DN列表,还并未明确该ZGID具体对应哪些Zone。
步骤303:MDS将ZGID以及DN列表返回给SDK客户端。
步骤304:SDK客户端向分别向N个存储节点设备发送分片数据写入请求。
本申请实施例中,当SDK客户端获取ZGID以及DN列表,则可获知存储目标对象的N个节点的网络标识,从而基于网络标识,分别向N个存储节点设备发送分片数据写入请求,每个分片数据写入请求携带ZGID,且用于请求在相应的存储节点设备存储目标对象的一个分片数据。
具体的,SDK客户端基于采用的数据编码类型,对目标对象进行编码,即对目标对象进行数据切片,获得目标对象的N个分片数据,进而基于N个DN的网络标识,将获得的N个分片数据分别携带于分片数据写入请求中发送给相应的DN。
沿用上述例子,DN列表中可以携带5个存储节点的IP地址,那么SDK客户端可以将目标对象切分为5个分片数据,并向这些IP地址并行的发起数据流写入,以将目标对象的5个分片数据分别写入至这些DN中。
步骤305:DN基于自身包括的存储磁盘的使用情况,选取出目标存储区域,并将存储区域集合标识与目标存储区域进行关联。
本申请实施例中,在执行数据流写入过程中,每个DN响应于上述的一个分片数据写入请求,根据自身的磁盘负载,选取一个存储磁盘上的存储区域,并将ZGID与目标存储区域进行关联,以及在本地存储这种关联关系,那么后续进行检索时,则能够基于ZGID找到相应的存储区域。
具体的,DN收到一个ZGID的写入请求时,先本地查询有无此ZGID的映射关系,若没有则根据一定的负载选举规则,选择一个全新的Zone与之关联,实现Zone与ZGID的关联。
步骤306:DN将该目标对象的分片数据写入该存储区域中。
例如,当存储磁盘为SMR磁盘时,则DN可以基于SMR磁盘顺序写入的特性,在SMR磁盘的Zone内顺序写入数据流。
步骤307:DN向MDS上报存储区域属性信息,存储区域属性信息用于指示本存储节点设备中,与ZGID关联的目标存储区域的存储区域标识。
基于上面的说明,MDS分配DN之后,仅知晓ZGID关联的DN,而并不能够明确DN上具体的Zone,因此DN为该目标对象分配Zone之后,则需要向MDS进行Zone上报,以更新MDS中本次数据流写入的存储区域属性信息,即更新MDS中存储的存储映射关系,存储映射关系用于指示各个存储区域集合标识各自对应的存储区域属性信息,至此,一个目标对象的存储过程结束。
具体的,MDS作为整个对象存储系统的元数据管理者,其管理着整个对象存储系统的元数据,包括上述的存储映射关系,这里主要以存储映射关系为例进行介绍,存储映射关系以ZGID为核心,关联存储了与该ZGID有关的所有信息,例如ZGID对应的file ID、objectID、DN列表、Zone标识以及目标对象的大小和类型等信息。
需要说明的是,图3中仅以DN1执行305~307为例进行示出,但其余的DN也同样会执行这些过程,由于执行过程类似,因而不多赘述。
本申请实施例中,为了提升存储映射关系的高效查询,同时节省MDS的存储空间,MDS上存储的存储映射关系并不在管理节点进行持久化存储、序列化存储,而是将存储映射关系存储在内存中,实现内存态的存储映射关系的缓存。那么,MDS上的存储映射关系构建需要依赖于DN的Zone上报,从而MDS根据Zone上报的结果,实时维护和更新MDS内部缓存的存储映射关系。
具体的,DN的Zone上报可以包括如下情况:
(1)周期性上报(非实时上报)
本申请实施例中,每个DN自身也在维护自身节点相关的存储映射关系,那么可预先设定每个DN的上报周期,每个DN可按照设定的周期向MDS上报自身存储的存储映射关系,从而使得MDS能够对存储映射关系进行维护和更新。
具体的,DN节点的周期性上报可以包括增量上报和全量上报,增量上报即DN周期性的将新增的存储映射关系上报,全量上报则是DN将自身存储的存储映射关系,在实际应用中,可以根据具体情况合理设置增量上报和全量上报的周期。
(2)实时业务上报(实时上报)
本申请实施例中,实时业务上报即是指在每次进行数据流写入之后,DN向MDS上报本次数据流写入的存储区域属性信息,即上述步骤306的过程。
由此,MDS通过周期性的增量和全量上报,以及实时业务上报,实现MDS对整个系统的所有Zone的负载和管理。例如,当对象存储系统重启MDS之后,同样依据DN进行的增量和全量上报,来逐渐构建MDS内部内存态存储的存储映射关系;或者,当DN重启注册时,DN会向MDS进行首次Zone上报,MDS基于上报的信息,更新内部内存态的缓存。通过上述两种信令流的交互,来保证MDS内部ZG信息缓存的正确性,保证MDS负载均衡的正确性和准确性。
本申请实施例中,还考虑到整个分布式对象存储系统可能的集群规模通常较大,例如,以通常的系统规模而言,存储节点可以达到四五百台节点之多,每个DN有36盘位,以每个SMR磁盘包含7万个Zone,即每个SMR磁盘的存储量为14TB时,相应的存储映射关系的数量显然非常巨大,如果基于单表存储如此规模的存储映射关系,那么在查询遍历时,由于单表的数据量巨大极易造成查询等操作的高延时,影响用户体验。因此,为了进一步降低响应时延,在进行存储映射关系的存储时,采用多个子表格进行存储,每个子表格存储存储映射关系中的部分。
具体的,在进行存储时,将各个存储映射关系按照zgId进行一定的哈希(Hash)散列,在内存态分别存储于各个子表分区(HashMap)中,这样,在后续进行查询和管理时,可以针对各个子表独立并行的进行查询和管理,提升响应效率。
本申请实施例中,在步骤301之前,还可以包括步骤S1~S4,参见图5所示,为步骤S1~S4的流程示意图。
S1:SDK客户端向MDS发送存储空间创建请求。
具体的,SDK客户端基于待存储的目标数据类型,向MDS发送存储空间创建请求,存储空间创建请求用于请求为自身分配存储空间标识(bucket ID)。
S2:MDS向SDK客户端返回bucket ID。
以安防监控对应的对象存储系统为例,为每个监控设备存储监控视频时,为了区分不同监控设备的视频,需要为每个监控设备分配不同的标识,那么在该监控设备存储监控视频之前,其对应的SDK客户端需要向MDS发起存储空间(bucket)创建请求,以请求为该监控设备分配用于存储监控视频的bucket ID,相当于,SDK客户端请求为该监控设备创建一个逻辑上的文件夹,用于存储该监控设备的监控视频。
一个bucket ID唯一标识一个监控设备的一种数据类型对应的存储空间,例如,监控设备可以请求存储监控视频和监控图片,那么MDS可以其分配两个bucket ID,分别对应于监控视频和监控图片。
S3:SDK客户端向MDS发送文件创建请求。
具体的,SDK客户端基于待存储的目标文件,向MDS发送文件创建请求,用于请求为目标文件分配file ID。
S4:MDS向SDK客户端返回file ID。
基于SDK客户端的请求,MDS基于目标文件的信息为该文件生成相应的file ID,并返回给SDK客户端,file ID唯一标识该目标文件,这样,后续在存储目标文件包括的对象时,则可以在请求中携带file ID。
本申请实施例中,分布式对象存储系统还提供了文件读取方式,参见图6所示,为本申请实施例提供的文件读取过程的流程示意图。
步骤601:SDK客户端向MDS发送文件检索请求。
其中,文件检索请求中携带待读取的目标文件名称。
一般而言,用户通过上层应用进行文件检索时,通常是输入文件的名称作为检索字段,例如针对一段监控视频而言,用户可输入该监控视频的时间作为文件名称进行检索。
步骤602:MDS基于目标文件名称,在存储映射关系中查询与目标文件包括的各个对象对应的ZGID,以及每个ZGID对应的DN列表。
本申请实施例中,由于MDS采用的是分表存储的方式,那么在查询目标文件时,可以采用并行处理的方式,分别对MDS缓存的多个子表格进行遍历查询,以获取各个对象的ZGID。
步骤603:MDS将各个对象的ZGID,以及每个ZGID对应的DN列表发送给SDK客户端。
步骤604:SDK客户端向DN列表中的DN发起分片数据获取请求。
其中,针对目标文件包括的每个对象,SDK分别向该对象的各个DN发起分片数据获取请求,分片数据获取请求中携带有ZGID。
例如,当DN列表包含5个DN的IP地址时,则SDK客户端分别向这5个IP地址发起分片数据获取请求,以获取各个DN中存储的分片数据。
步骤605:DN确定与该ZGID关联的Zone。
步骤606:DN将从该Zone中读取的分片数据返回给SDK客户端。
综上所述,本申请实施例通过ZoneGroup设计,基于ZG整体调度和管理,支撑基于SMR磁盘的分布式对象存储系统能够完美兼容纠删码技术,EC对应的一组数据分片并发批量写入ZG所属Zone空间,且管理节点对分布式系统内部所有的SMR磁盘所有Zone统一进行状态缓存和管理,以提供ZG的复用、和文件恢复、负载均衡的能力,最终实现分布式对象存储系统对于SMR新一代磁盘存储介质的支持,解决了现有分布式对象存储系统无法基于SMR磁盘Zone区域直接纳管的问题,并提供相对多副本模式更加高的磁盘空间利用率。
此外,基于ZGID设计以及ZGID在系统各模块间透传,实现了管理节点对于ZG全局缓存的构建以提供全局的ZG查询、管理和负载的能力。管理节点根据SDK客户端在首次申请空间时,生成ZGID通过SDK客户端最终透传给存储节点,并基于存储节点周期性和实时性的Zone上报,完成上述全局ZG缓存的构建。
结合实际项目规模估算,300台存储节点36盘位,每个存储节点7万个zone,共14TB的存储空间,得出系统在长期运行后,内部的ZG缓存数量可能达到数亿级别。因此内存态缓存的ZG信息,需要通过Hash散列进行特殊的分区存储处理,避免单个数据结构存储数亿级别的记录,导致查询和遍历都严重耗时,影响用户体验和系统的效率。管理节点通过对每个ZGID进行按照fileId的Hash散列分布处理,使得所有的ZGID均匀的分布到256个子分区,以此来规避大量存储节点长期运行环境中,ZG数量巨大带来的系统性能下降问题。
本提案适用于分布式对象存储领域,通过对原生SMR磁盘Zone空间进行ZoneGroup分组管理,结ZGID在系统各模块间透传,以此来支持基于SMR磁盘的数据写入能力,并且通过一定ZG分组管理,实现系统对纠删码技术的支持,提升数据安全性。
请参见图7,基于同一发明构思,本申请实施例还提供了一种分布式对象存储装置70,应用于分布式对象存储系统包括的终端设备中,该装置包括:
请求单元701,用于基于待存储的目标对象,向管理节点设备发送存储空间申请请求,存储空间申请请求携带目标对象的对象属性信息;
接收单元702,用于接收管理节点设备响应于存储空间申请请求返回的存储区域集合标识,以及存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;存储区域集合标识是管理节点设备根据对象属性信息生成的,且用于唯一标识存储目标对象的存储区域集合;
数据写入单元703,用于基于N个存储节点设备的网络标识,分别向N个存储节点设备发送分片数据写入请求,每个分片数据写入请求携带存储区域集合标识,且用于请求在相应的存储节点设备存储目标对象的一个分片数据。
可选的,请求单元701,还用于:
基于待存储的目标文件,向管理节点设备发送文件创建请求,文件创建请求用于请求为目标文件分配文件标识;
接收管理节点设备响应于文件创建请求返回的文件标识,文件标识唯一标识目标文件;
基于目标文件所包括的目标对象,向管理节点设备发送存储空间申请请求,且存储空间申请请求携带的对象属性信息包括文件标识与目标对象的对象标识。
可选的,请求单元701,还用于:
基于待存储的目标数据类型,向管理节点设备发送存储空间创建请求,存储空间创建请求用于请求为自身分配存储空间标识;
接收管理节点设备响应于存储空间创建请求返回的存储空间标识,存储空间标识唯一标识终端设备所输出的目标数据类型的数据;
可选的,该装置还包括文件读取单元704;
请求单元701,还用于:基于待读取的目标文件名称,向管理节点设备发送文件检索请求;
接收单元702,还用于接收管理节点设备响应于文件检索请求,返回的各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;
文件读取单元704,用于针对各个对象中每个对象,分别向该对象对应的N个存储节点设备发送分片数据获取请求,分片数据获取请求携带该对象的存储区域集合标识;以及,
接收各个存储节点设备响应于相应的分片数据获取请求返回的分片数据,并基于每个对象的分片数据获得相应的对象数据,以获得各个对象的对象数据组成的目标文件。
可选的,存储空间申请请求还携带存储目标对象所使用的数据编码类型,且存储节点设备的数量N是根据数据编码类型确定的;
则文件写入单元703,具体用于:
基于数据编码类型,对目标对象进行编码,获得目标对象的N个分片数据;
基于N个存储节点设备的网络标识,将获得的N个分片数据分别携带于分片数据写入请求中发送给相应的存储节点设备。
该装置可以用于执行图3~图6所示的实施例中SDK客户端所执行的方法,因此,对于该装置的各功能模块所能够实现的功能等可参考图3~图6所示的实施例的描述,不多赘述。
请参见图8,基于同一发明构思,本申请实施例还提供了一种分布式对象存储装置80,应用于分布式对象存储系统包括的管理节点设备中,该装置包括:
标识生成单元801,用于基于终端设备发送的存储空间申请请求携带的对象属性信息,生成待存储的目标对象的存储区域集合标识,存储区域集合标识唯一标识存储目标对象的存储区域集合;
存储节点管理单元802,用于基于预先设定的负载均衡策略,从分布式对象存储系统包括的多个存储节点设备中选取N个存储节点设备,其中,存储区域集合标识对应的N个目标存储区域来源于N个存储节点设备,且一个存储区域来源于一个存储节点设备;
收发单元803,用于将存储区域集合标识,以及N个存储节点设备的网络标识返回给终端设备;以及,
接收N个存储节点设备各自上报的存储区域属性信息,并基于存储区域属性信息更新自身存储的存储映射关系,存储区域属性信息用于指示与存储区域集合标识关联的存储区域标识,存储映射关系用于指示各个存储区域集合标识各自对应的存储区域属性信息。
可选的,标识生成单元801,还用于:
响应于终端设备发送的文件创建请求,为目标文件分配文件标识,文件标识唯一标识目标文件;目标文件包括目标对象;
基于文件标识与目标对象的对象标识,生成存储区域集合标识。
可选的,该装置还包括检索单元804,用于:
基于终端设备发送的文件检索请求携带的目标文件名称,在存储映射关系中查询与目标文件包括的各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;
将各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个存储节点设备的网络标识发送给终端设备。
可选的,存储映射关系缓存于管理节点设备的内存中,且,存储映射关系采用多个子表格进行存储,每个子表格存储映射关系中的部分;
则检索单元804,具体用于:
采用并行处理的方式,分别对多个子表格进行遍历查询,以获取各个对象的存储区域集合标识。
该装置可以用于执行图3~图6所示的实施例中MDS所执行的方法,因此,对于该装置的各功能模块所能够实现的功能等可参考图3~图6所示的实施例的描述,不多赘述。
请参见图9,基于同一发明构思,本申请实施例还提供了一种分布式对象存储装置90,应用于分布式对象存储系统包括的存储节点设备中,该装置包括:
接收单元901,用于接收终端设备发送的分片数据写入请求,分片数据写入请求携带待存储的目标对象的存储区域集合标识,且分片数据写入请求携带目标对象的一个分片数据;
存储区域管理单元902,用于基于分片数据写入请求以及自身包括的存储磁盘的使用情况,从自身包括的存储磁盘中选取出目标存储区域,并将分片数据存储至目标存储区域中;以及,将存储区域集合标识与目标存储区域进行关联;
发送单元903,用于向管理节点设备上报存储区域属性信息,存储区域属性信息用于指示本存储节点设备中,与存储区域集合标识关联的目标存储区域的存储区域标识。
可选的,存储磁盘为叠瓦式磁记录SMR磁盘。
该装置可以用于执行图3~图6所示的实施例中DN所执行的方法,因此,对于该装置的各功能模块所能够实现的功能等可参考图3~图6所示的实施例的描述,不多赘述。
请参见图10,基于同一技术构思,本申请实施例还提供了一种计算机设备100,可以包括存储器1001和处理器1002。
所述存储器1001,用于存储处理器1002执行的计算机程序。存储器1001可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据计算机设备的使用所创建的数据等。处理器1002,可以是一个中央处理单元(central processing unit,CPU),或者为数字处理单元等等。本申请实施例中不限定上述存储器1001和处理器1002之间的具体连接介质。本申请实施例在图10中以存储器1001和处理器1002之间通过总线1003连接,总线1003在图10中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。所述总线1003可以分为地址总线、数据总线、控制总线等。为便于表示,图10中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器1001可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器1001也可以是非易失性存储器(non-volatilememory),例如只读存储器,快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)、或者存储器1001是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器1001可以是上述存储器的组合。
处理器1002,用于调用所述存储器1001中存储的计算机程序时执行如图3~图6所示的实施例中SDK客户端、MDS或者DN所执行的方法。
在一些可能的实施方式中,本申请提供的方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在计算机设备上运行时,所述程序代码用于使所述计算机设备执行本说明书上述描述的根据本申请各种示例性实施方式的方法中的步骤,例如,所述计算机设备可以执行如图3~图6所示的实施例中SDK客户端、MDS或者DN所执行的方法。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (16)

1.一种分布式对象存储方法,其特征在于,应用于分布式对象存储系统包括的终端设备中,所述方法包括:
基于待存储的目标对象,向管理节点设备发送存储空间申请请求,所述存储空间申请请求携带所述目标对象的对象属性信息;
接收所述管理节点设备响应于所述存储空间申请请求返回的存储区域集合标识,以及所述存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;所述存储区域集合标识是所述管理节点设备根据所述对象属性信息生成的,且用于唯一标识存储所述目标对象的存储区域集合;
基于所述N个存储节点设备的网络标识,分别向所述N个存储节点设备发送分片数据写入请求,每个分片数据写入请求携带所述存储区域集合标识,且用于请求在相应的存储节点设备存储所述目标对象的一个分片数据。
2.如权利要求1所述的方法,其特征在于,在所述基于待存储的目标对象,向管理节点设备发送存储空间申请请求之前,所述方法还包括:
基于待存储的目标文件,向所述管理节点设备发送文件创建请求,所述文件创建请求用于请求为所述目标文件分配文件标识;
接收所述管理节点设备响应于所述文件创建请求返回的文件标识,所述文件标识唯一标识所述目标文件;
则所述基于待存储的目标对象,向管理节点设备发送存储空间申请请求,所述存储空间申请请求携带所述目标对象的对象属性信息,包括:
基于所述目标文件所包括的目标对象,向所述管理节点设备发送所述存储空间申请请求,且所述存储空间申请请求携带的所述对象属性信息包括所述文件标识与所述目标对象的对象标识。
3.如权利要求1所述的方法,其特征在于,在所述基于待存储的目标对象,向管理节点设备发送存储空间申请请求之前,所述方法还包括:
基于待存储的目标数据类型,向所述管理节点设备发送存储空间创建请求,所述存储空间创建请求用于请求为自身分配存储空间标识;
接收所述管理节点设备响应于所述存储空间创建请求返回的存储空间标识,所述存储空间标识唯一标识所述终端设备所输出的目标数据类型的数据。
4.如权利要求1所述的方法,其特征在于,所述方法还包括:
基于待读取的目标文件名称,向所述管理节点设备发送文件检索请求;
接收所述管理节点设备响应于所述文件检索请求,返回的各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;
针对所述各个对象中每个对象,分别向该对象对应的N个存储节点设备发送分片数据获取请求,所述分片数据获取请求携带该对象的存储区域集合标识;
接收各个存储节点设备响应于相应的分片数据获取请求返回的分片数据,并基于每个对象的分片数据获得相应的对象数据,以获得所述各个对象的对象数据组成的目标文件。
5.如权利要求1~4任一所述的方法,其特征在于,所述存储空间申请请求还携带存储所述目标对象所使用的数据编码类型,且存储节点设备的数量N是根据所述数据编码类型确定的;
则基于所述N个存储节点设备的网络标识,分别向所述N个存储节点设备发送分片数据写入请求,包括:
基于所述数据编码类型,对所述目标对象进行编码,获得所述目标对象的N个分片数据;
基于所述N个存储节点设备的网络标识,将获得的N个分片数据分别携带于分片数据写入请求中发送给相应的存储节点设备。
6.一种分布式对象存储方法,其特征在于,应用于分布式对象存储系统包括的管理节点设备中,所述方法包括:
基于终端设备发送的存储空间申请请求携带的对象属性信息,生成待存储的目标对象的存储区域集合标识,所述存储区域集合标识唯一标识存储所述目标对象的存储区域集合;
基于预先设定的负载均衡策略,从所述分布式对象存储系统包括的多个存储节点设备中选取N个存储节点设备,其中,所述存储区域集合标识对应的N个目标存储区域来源于所述N个存储节点设备,且一个存储区域来源于一个存储节点设备;
将所述存储区域集合标识,以及所述N个存储节点设备的网络标识返回给所述终端设备;
接收所述N个存储节点设备各自上报的存储区域属性信息,并基于存储区域属性信息更新自身存储的存储映射关系,所述存储区域属性信息用于指示与所述存储区域集合标识关联的存储区域标识,所述存储映射关系用于指示各个存储区域集合标识各自对应的存储区域属性信息。
7.如权利要求6所述的方法,其特征在于,在基于终端设备发送的存储空间申请请求携带的对象属性信息,生成待存储的目标对象的存储区域集合标识之前,所述方法还包括:
响应于所述终端设备发送的文件创建请求,为所述目标文件分配文件标识,所述文件标识唯一标识所述目标文件;所述目标文件包括所述目标对象;
则所述对象属性信息包括所述文件标识与所述目标对象的对象标识,则基于终端设备发送的存储空间申请请求携带的对象属性信息,生成待存储的目标对象的存储区域集合标识,包括:
基于所述文件标识与所述目标对象的对象标识,生成所述存储区域集合标识。
8.如权利要求6所述的方法,其特征在于,所述方法还包括:
基于所述终端设备发送的文件检索请求携带的目标文件名称,在所述存储映射关系中查询与目标文件包括的各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;
将所述各个对象的存储区域集合标识,以及每个存储区域集合标识对应的N个存储节点设备的网络标识发送给所述终端设备。
9.如权利要求8所述的方法,其特征在于,所述存储映射关系缓存于所述管理节点设备的内存中,且,所述存储映射关系采用多个子表格进行存储,每个子表格存储所述存储映射关系中的部分;
则基于所述终端设备发送的文件检索请求携带的目标文件名称,在所述存储映射关系中查询与目标文件包括的各个对象的存储区域集合标识,包括:
采用并行处理的方式,分别对所述多个子表格进行遍历查询,以获取所述各个对象的存储区域集合标识。
10.一种分布式对象存储方法,其特征在于,应用于分布式对象存储系统包括的存储节点设备中,所述方法包括:
接收终端设备发送的分片数据写入请求,所述分片数据写入请求携带待存储的目标对象的存储区域集合标识,且所述分片数据写入请求携带所述目标对象的一个分片数据;
基于所述分片数据写入请求以及自身包括的存储磁盘的使用情况,从自身包括的存储磁盘中选取出目标存储区域,并将所述分片数据存储至所述目标存储区域中;以及,
将所述存储区域集合标识与所述目标存储区域进行关联;
向管理节点设备上报存储区域属性信息,所述存储区域属性信息用于指示本存储节点设备中,与所述存储区域集合标识关联的所述目标存储区域的存储区域标识。
11.如权利要求10所述的方法,其特征在于,所述存储磁盘为叠瓦式磁记录SMR磁盘。
12.一种分布式对象存储装置,其特征在于,应用于分布式对象存储系统包括的终端设备中,所述装置包括:
请求单元,用于基于待存储的目标对象,向管理节点设备发送存储空间申请请求,所述存储空间申请请求携带所述目标对象的对象属性信息;
接收单元,用于接收所述管理节点设备响应于所述存储空间申请请求返回的存储区域集合标识,以及所述存储区域集合标识对应的N个目标存储区域所属的N个存储节点设备的网络标识;所述存储区域集合标识是所述管理节点设备根据所述对象属性信息生成的,且用于唯一标识存储所述目标对象的存储区域集合;
数据写入单元,用于基于所述N个存储节点设备的网络标识,分别向所述N个存储节点设备发送分片数据写入请求,每个分片数据写入请求携带所述存储区域集合标识,且用于请求在相应的存储节点设备存储所述目标对象的一个分片数据。
13.一种分布式对象存储装置,其特征在于,应用于分布式对象存储系统包括的管理节点设备中,所述装置包括:
标识生成单元,用于基于终端设备发送的存储空间申请请求携带的对象属性信息,生成待存储的目标对象的存储区域集合标识,所述存储区域集合标识唯一标识存储所述目标对象的存储区域集合;
存储节点管理单元,用于基于预先设定的负载均衡策略,从所述分布式对象存储系统包括的多个存储节点设备中选取N个存储节点设备,其中,所述存储区域集合标识对应的N个目标存储区域来源于所述N个存储节点设备,且一个存储区域来源于一个存储节点设备;
收发单元,用于将所述存储区域集合标识,以及所述N个存储节点设备的网络标识返回给所述终端设备;以及,
接收所述N个存储节点设备各自上报的存储区域属性信息,并基于存储区域属性信息更新自身存储的存储映射关系,所述存储区域属性信息用于指示与所述存储区域集合标识关联的存储区域标识,所述存储映射关系用于指示各个存储区域集合标识各自对应的存储区域属性信息。
14.一种分布式对象存储装置,其特征在于,应用于分布式对象存储系统包括的存储节点设备中,所述装置包括:
接收单元,用于接收终端设备发送的分片数据写入请求,所述分片数据写入请求携带待存储的目标对象的存储区域集合标识,且所述分片数据写入请求携带所述目标对象的一个分片数据;
存储区域管理单元,用于基于所述分片数据写入请求以及自身包括的存储磁盘的使用情况,从自身包括的存储磁盘中选取出目标存储区域,并将所述分片数据存储至所述目标存储区域中;以及,将所述存储区域集合标识与所述目标存储区域进行关联;
发送单元,用于向管理节点设备上报存储区域属性信息,所述存储区域属性信息用于指示本存储节点设备中,与所述存储区域集合标识关联的所述目标存储区域的存储区域标识。
15.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,
所述处理器执行所述计算机程序时实现权利要求1~5、6~9或者10~11任一项所述方法的步骤。
16.一种计算机存储介质,其上存储有计算机程序指令,其特征在于,
该计算机程序指令被处理器执行时实现权利要求1~5、6~9或者10~11任一项所述方法的步骤。
CN202110907042.3A 2021-08-09 2021-08-09 分布式对象存储方法、装置和设备及计算机存储介质 Pending CN113672175A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110907042.3A CN113672175A (zh) 2021-08-09 2021-08-09 分布式对象存储方法、装置和设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110907042.3A CN113672175A (zh) 2021-08-09 2021-08-09 分布式对象存储方法、装置和设备及计算机存储介质

Publications (1)

Publication Number Publication Date
CN113672175A true CN113672175A (zh) 2021-11-19

Family

ID=78541794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110907042.3A Pending CN113672175A (zh) 2021-08-09 2021-08-09 分布式对象存储方法、装置和设备及计算机存储介质

Country Status (1)

Country Link
CN (1) CN113672175A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114115752A (zh) * 2022-01-27 2022-03-01 浙江大华技术股份有限公司 一种数据存储方法及计算机设备
CN114153395A (zh) * 2021-11-30 2022-03-08 浙江大华技术股份有限公司 一种对象存储数据生命周期管理方法、装置及设备
CN114168081A (zh) * 2021-12-09 2022-03-11 中国电信股份有限公司 高维特征存储方法及装置、存储介质、电子设备
CN114221975A (zh) * 2021-11-30 2022-03-22 浙江大华技术股份有限公司 基于smr盘的云存储数据恢复方法及装置、电子设备
CN114265563A (zh) * 2021-12-31 2022-04-01 北京瑞莱智慧科技有限公司 基于云计算的对象存储方法、装置及存储介质
CN115617747A (zh) * 2022-12-16 2023-01-17 新华三信息技术有限公司 一种文件存储方法、装置及设备
CN116827947A (zh) * 2023-08-31 2023-09-29 联通在线信息科技有限公司 一种分布式对象存储调度方法和系统
CN117648057A (zh) * 2024-01-29 2024-03-05 瑞达可信安全技术(广州)有限公司 一种基于分布式存储的数据安全管理方法及系统
WO2024061212A1 (zh) * 2022-09-23 2024-03-28 华为云计算技术有限公司 一种数据存储方法及装置
WO2024061108A1 (en) * 2022-09-21 2024-03-28 Zhejiang Dahua Technology Co., Ltd. Distributed storage systems and methods thereof, device and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160246677A1 (en) * 2015-02-19 2016-08-25 Netapp, Inc. Virtual chunk service based data recovery in a distributed data storage system
US20170206135A1 (en) * 2015-12-31 2017-07-20 Huawei Technologies Co., Ltd. Data Reconstruction Method in Distributed Storage System, Apparatus, and System
CN107291889A (zh) * 2017-06-20 2017-10-24 郑州云海信息技术有限公司 一种数据存储方法及系统
CN112182112A (zh) * 2020-10-13 2021-01-05 宁波金狮科技有限公司 基于区块链的分布式数据动态存储方法和电子设备
CN112988683A (zh) * 2021-02-07 2021-06-18 北京金山云网络技术有限公司 数据处理方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160246677A1 (en) * 2015-02-19 2016-08-25 Netapp, Inc. Virtual chunk service based data recovery in a distributed data storage system
US20170206135A1 (en) * 2015-12-31 2017-07-20 Huawei Technologies Co., Ltd. Data Reconstruction Method in Distributed Storage System, Apparatus, and System
CN107291889A (zh) * 2017-06-20 2017-10-24 郑州云海信息技术有限公司 一种数据存储方法及系统
CN112182112A (zh) * 2020-10-13 2021-01-05 宁波金狮科技有限公司 基于区块链的分布式数据动态存储方法和电子设备
CN112988683A (zh) * 2021-02-07 2021-06-18 北京金山云网络技术有限公司 数据处理方法、装置、电子设备及存储介质

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114221975B (zh) * 2021-11-30 2024-01-30 浙江大华技术股份有限公司 基于smr盘的云存储数据恢复方法及装置、电子设备
CN114221975A (zh) * 2021-11-30 2022-03-22 浙江大华技术股份有限公司 基于smr盘的云存储数据恢复方法及装置、电子设备
CN114153395A (zh) * 2021-11-30 2022-03-08 浙江大华技术股份有限公司 一种对象存储数据生命周期管理方法、装置及设备
CN114153395B (zh) * 2021-11-30 2024-05-14 浙江大华技术股份有限公司 一种对象存储数据生命周期管理方法、装置及设备
CN114168081A (zh) * 2021-12-09 2022-03-11 中国电信股份有限公司 高维特征存储方法及装置、存储介质、电子设备
CN114265563A (zh) * 2021-12-31 2022-04-01 北京瑞莱智慧科技有限公司 基于云计算的对象存储方法、装置及存储介质
CN114115752B (zh) * 2022-01-27 2022-06-07 浙江大华技术股份有限公司 一种数据存储方法及计算机设备
CN114115752A (zh) * 2022-01-27 2022-03-01 浙江大华技术股份有限公司 一种数据存储方法及计算机设备
WO2024061108A1 (en) * 2022-09-21 2024-03-28 Zhejiang Dahua Technology Co., Ltd. Distributed storage systems and methods thereof, device and storage medium
WO2024061212A1 (zh) * 2022-09-23 2024-03-28 华为云计算技术有限公司 一种数据存储方法及装置
CN115617747A (zh) * 2022-12-16 2023-01-17 新华三信息技术有限公司 一种文件存储方法、装置及设备
CN116827947B (zh) * 2023-08-31 2024-01-19 联通在线信息科技有限公司 一种分布式对象存储调度方法和系统
CN116827947A (zh) * 2023-08-31 2023-09-29 联通在线信息科技有限公司 一种分布式对象存储调度方法和系统
CN117648057A (zh) * 2024-01-29 2024-03-05 瑞达可信安全技术(广州)有限公司 一种基于分布式存储的数据安全管理方法及系统

Similar Documents

Publication Publication Date Title
CN113672175A (zh) 分布式对象存储方法、装置和设备及计算机存储介质
JP6778795B2 (ja) データを記憶するための方法、装置及びシステム
CN103067433B (zh) 一种分布式存储系统的数据迁移方法、设备和系统
EP3076307A1 (en) Method and device for responding to a request, and distributed file system
CN105549905A (zh) 一种多虚拟机访问分布式对象存储系统的方法
US11245774B2 (en) Cache storage for streaming data
US9207870B2 (en) Allocating storage units in a dispersed storage network
US9734014B2 (en) Virtual memory mapping in a dispersed storage network
CN114860163B (zh) 一种存储系统、内存管理方法和管理节点
CN106446159B (zh) 一种存储文件的方法、第一虚拟机及名称节点
EP2710477B1 (en) Distributed caching and cache analysis
CN113296696A (zh) 一种数据的访问方法、计算设备及存储介质
CN110134338B (zh) 一种分布式存储系统及其数据冗余保护方法和相关设备
CN111177143B (zh) 键值数据存储方法、装置、存储介质与电子设备
CN110147203B (zh) 一种文件管理方法、装置、电子设备及存储介质
CN107368608A (zh) 基于arc替换算法的hdfs小文件缓存管理方法
CN111309245B (zh) 一种分层存储写入方法和装置、读取方法和装置及系统
WO2024061108A1 (en) Distributed storage systems and methods thereof, device and storage medium
WO2023051713A1 (en) Systems, methods, devices, and media for data processing
CN113806300A (zh) 数据存储方法、系统、装置、设备及存储介质
CN107798063A (zh) 快照处理方法和快照处理装置
CN112422611B (zh) 基于分布式对象存储的虚拟桶存储处理方法和系统
CN109558082B (zh) 分布式文件系统
WO2012171363A1 (zh) 分布式缓存系统中的数据操作方法和装置
CN114153395B (zh) 一种对象存储数据生命周期管理方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination