CN103310000A - 元数据管理方法 - Google Patents
元数据管理方法 Download PDFInfo
- Publication number
- CN103310000A CN103310000A CN2013102563139A CN201310256313A CN103310000A CN 103310000 A CN103310000 A CN 103310000A CN 2013102563139 A CN2013102563139 A CN 2013102563139A CN 201310256313 A CN201310256313 A CN 201310256313A CN 103310000 A CN103310000 A CN 103310000A
- Authority
- CN
- China
- Prior art keywords
- metadata
- node
- service module
- management method
- store
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明提供了一种元数据管理方法,包括:在元数据位置服务模块中获取元数据位置的信息;将元数据位置的信息传送给元数据服务模块;以及根据元数据位置的信息对元数据进行读写操作。本发明将元数据的管理划分为元数据位置管理层和元数据管理层,通过元数据位置管理层统一管理用户访问的元数据位置信息,然后元数据管理层根据元数据位置的信息将用户的访问请求分散到多个服务器上去执行,从而能够克服由于多个用户同时访问元数据存储系统所导致的系统响应时间长、反应慢、访问效率低等缺陷,因此,能够承受多个用户同时访问该存储系统所带来的访问压力,从而提高了系统性能。
Description
技术领域
本发明一般地涉及计算机技术领域,更具体地来说,涉及元数据管理方法。
背景技术
随着科技的日异月新,文件数据的指数性增长给存储系统带来了巨大的挑战。与传统的SAN结构存储比较起来,分布式文件系统具有价格低廉、可扩展性强、性能优越等特性。作为通用的分布式文件系统,元数据的管理是需要重点关注的,因为元数据是管理数据的数据。根据访问特性,应用可分为两种形式:元数据非密集型和元数据密集型。元数据非密集型应用主要是大文件的访存,如视频监控、虚拟机应用等,这类应用集中于数据的访存,元数据访问的比例相对较低,因而对于元数据管理的压力较小;元数据密集型应用集中于小文件的访存,如数字图书馆、网上商城等,这类应用操作的文件量巨大,元数据的访问压力较大。当管理海量的小文件时,分布式文件系统需要面临着性能和存储容量的双重考验。
在现有技术中,对于海量小文件的管理均存在一定的局限性。Lustre、GoogleFS、HDFS采用单一元数据服务节点架构,无法进行扩展,因此不论是在性能还是存储容量上都大大受限,不能很好地满足海量小文件管理的需求。GPFS采用多元数据,但是元数据服务器之间采用分布式锁来维持一致性,因此当元数据服务节点的数量较多时,分布式锁的开销会激增,对性能照成较大的负面影响。Panasas的存储系统采用多元数据服务器架构,但是每个元数据节点管理的命名空间是独立的,不能实现真正意义上的全局命名空间。Ceph采用动态子树的方式来在多个元数据节点之间平衡元数据访问负载,这种方式可以实现访问负载的均衡,但其不足之处在于元数据节点不能实现存储容量的动态扩展。因此,现有技术中的分布式文件系统不能同时满足巨大的应用操作的文件量和较大的元数据的访问压力方面的要求。
发明内容
针对现有技术中的存在分布式文件系统不能同时满足巨大的应用操作的文件量和较大的元数据的访问压力方面的要求的缺陷,本发明提供了能够解决上述缺陷的元数据管理方法。
根据本发明的一方面,本发明提供了一种元数据管理方法,包括:在元数据位置服务模块中获取元数据位置的信息;将元数据位置的信息传送给元数据服务模块;以及根据元数据位置的信息对元数据进行读写操作。
优选地,元数据位置为全局唯一标识ID,在元数据管理方法的步骤开始之前,进一步包括:建立所有全局唯一标识ID和元数据存储位置之间的一致性哈希映射关系,并将元数据存储位置作为元数据存储位置集合;将元数据存储位置集合划分为M个子集,其中,M为大于N的整数并且N为元数据存储节点的个数;将M个子集分配给N个元数据存储节点;以及根据一致性哈希映射关系,将具有全局唯一标识ID的元数据存储在与M个子集相对应的N个元数据存储节点上。
优选地,当N个元数据存储节点的存储空间不足时,在线添加扩展元数据存储节点,并且将存储在N个元数据存储节点上的M个子集的一部分转存至扩展元数据存储节点上。
优选地,元数据位置服务模块位于一个或多个存储节点组上,每个存储节点组都包括一个主存储节点和一个从存储节点,并且主存储节点和从存储节点互为镜像存储节点。
优选地,当一个或多个存储节点组的存储空间不足时,以存储节点组为单位在线添加扩展存储节点组,并且将后续要写入的元数据的元数据位置的信息存储在扩展存储节点组上。
优选地,在实施元数据管理方法的步骤之前,进一步包括:通过客户端向元数据位置服务模块发送元数据操作请求,其中,元数据操作请求包括:查询请求和存储请求。
优选地,当元数据操作请求为查询请求时,根据查询请求,在元数据位置服务模块中查找到元数据的全局唯一标识ID;将全局唯一标识ID传送给元数据服务模块;以及根据全局唯一标识ID的一致性哈希映射查找到存储元数据的元数据存储节点,从元数据存储节点读取元数据并反馈给客户端。
优选地,当元数据操作请求为存储请求时,根据存储请求,由元数据位置服务模块提供元数据的全局唯一标识ID;将全局唯一标识ID和元数据传送给元数据服务模块;以及根据全局唯一标识ID的一致性哈希映射查找到要存储元数据的元数据存储节点,并将元数据存储在元数据存储节点中。
优选地,元数据服务模块用于管理包括文件的基本属性、用户数据存储位置信息以及文件扩展属性的元数据。
优选地,元数据位置服务模块用于管理元数据位置信息和文件系统的目录树结构。
利用本发明的技术方案能够克服现有技术的缺陷,通过将文件系统的元数据管理划分为元数据位置管理层和元数据管理层,这样能够解决多个用户同时访问海量小文件的压力,而且这种元数据管理方法便于在线扩展元数据位置存储节点和元数据存储节点,从而便于动态增大存储容量。因此能够满足巨大的应用操作的文件量和较大的元数据的访问压力方面的要求。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。在附图中:
图1为根据本发明的实施例的元数据管理方法的整体流程图;
图2为根据本发明的实施例的元数据管理方法的存储方法的具体实例的示图;
图3为根据本发明的实施例在实施元数据管理方法之前,建立元数据存储结构的方法的步骤的流程图;
图4为本发明的可选实施例的建立的部分元数据存储节点的示图;
图5为根据本发明的实施例的元数据管理方法的查询方法的具体流程的示图;以及
图6为根据本发明的实施例的元数据管理方法的存储方法的具体流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1为根据本发明的实施例的元数据管理方法的整体流程图。参考图1,元数据管理方法100包括以下步骤。在步骤S102中,在元数据位置服务模块中获取元数据位置的信息。具体地,客户端接收到来自用户的数据请求以后,首先将接收到的数据请求传送给元数据位置服务模块,并且在元数据位置服务模块中获取元数据位置信息。在步骤S104中,将元数据位置的信息传送给元数据服务模块。具体地,元数据位置服务模块将获得的元数据位置的信息传送给元数据服务模块。在步骤S106中,根据元数据位置的信息对元数据进行读写操作。具体地,元数据服务模块在接收到元数据位置的信息以后,根据该元数据位置的信息对该元数据进行读操作或写操作。
本发明的实施例的元数据管理方法将元数据的管理划分为元数据位置管理层和元数据管理层,通过元数据位置管理层统一管理用户访问的元数据位置信息,然后元数据管理层根据元数据位置的信息将用户的访问请求分散到多个服务器上去执行,从而能够克服由于多个用户同时访问元数据存储系统所导致的系统响应时间长、反应慢、访问效率低等缺陷,因此,能够承受多个用户同时访问该存储系统所带来的访问压力,从而提高了系统性能。
本发明中对文件系统元数据管理采取分层管理,共分为两层:第一层为元数据位置管理层,第二层为元数据管理层。元数据位置管理层用于管理文件元数据所在的元数据存储节点位置信息和文件系统的目录树结构。具体地,元数据位置管理层(即,元数据位置服务模块)向用户的数据请求接收层提供各个文件的具体元数据存储位置信息以及传统的目录树结构。元数据服务模块用于管理包括文件的基本属性、用户数据存储位置信息以及文件扩展属性的元数据。具体地,元数据管理层用于管理文件的基本属性(如大小、修改时间)、用户数据存储位置信息、文件扩展属性(如权限配置)等。在海量小文件存储系统中,由于需要管理海量文件,元数据量较多,因此元数据管理层的元数据信息存储需求较元数据位置管理层的元数据位置信息存储需求大。图2为根据本发明的实施例的元数据管理方法的存储方法的具体实例的示图。应用访问元数据的流程如下:
(1)应用将向客户端发起请求;
(2)向元数据位置服务模块查询元数据的存储位置;
(3)元数据位置服务模块将请求转发给元数据服务模块;
(4)元数据服务模块读取元数据,返回给客户端;以及
(5)客户端向应用返回请求处理结果。
因此,利用该元数据管理方法解决了分布式文件系统中元数据性能和存储容量所面临的双重压力问题。
在元数据管理方法的步骤开始之前,首先需要建立能够实现参考图1所述的元数据管理方法的元数据存储结构(即,分布式文件系统)。图3为根据本发明的实施例在实施元数据管理方法之前,建立元数据存储结构的方法的步骤的流程图。参考图3,建立元数据存储结构的方法300包括以下具体步骤。在步骤S302中,建立所有全局唯一标识ID和元数据存储位置之间的一致性哈希映射关系,并将元数据存储位置作为元数据存储位置集合。其中元数据位置为全局唯一标识ID。具体地,将该元数据存储系统中的所有的元数据位置进行统一编号,从而便于在整个元数据存储系统中进行全局查找。具体地,通过一致性哈希映射建立全局唯一标识ID和实际的元数据存储位置之间的映射关系,并且将实际的元数据存储位置作为元数据存储位置集合。
在步骤S304中,将元数据存储位置集合划分为M个子集,其中,M为大于N的整数并且N为元数据存储节点的个数。具体地,对实际的元数据存储位置集合进行划分,当存储元数据的元数据存储节点具有N个时,将元数据存储位置的集合划分为M个,其中M远远大于N,从而能够轻松地实现元数据存储节点的在线扩展。
在步骤S306中,将M个子集分配给N个元数据存储节点。对元数据存储位置的M个子集进行分配,在建立存储结构时,将M个子集分配给N个元数据存储节点,当元数据存储节点的存储容量不足时,可以将具有多个子集的存储节点中的一个或多个子集分配给扩展的元数据存储节点,从而使元数据存储节点能够进行在线扩展。
在步骤S308中,根据一致性哈希映射关系,将具有全局唯一标识ID的元数据存储在与M个子集相对应的N个元数据存储节点上。具体地,每个元数据都会具有一个全局唯一标识ID,将具有全局唯一标识ID的相应元数据存储在分配有相应的元数据存储位置子集的存储节点上,从而建立能够通过本发明实施例的元数据管理方法所管理的存储结构(即,分布式文件系统)。
在通过建立元数据存储结构的方法300所建立的元数据存储结构中,元数据位置管理层(即,元数据位置服务模块)采用树结构管理,对应传统文件系统的目录项管理。该层的存储量不大,通常TB级的存储容量就可以满足存储容量的要求。由于元数据存储位置的访问需求较大,且在常规应用模式下,以查询访问为主。优选地,采取存储和访问分离的结构,即,存储节点数目和提供定位查询服务的访问节点可以不同,以避免元数据位置服务模块所提供的服务成为整个存储系统的瓶颈。例如,由于该分布式文件系统,主要是提供访问服务,所以可以将更多的存储节点分配给访问请求,而分配给存储请求的存储节点较少。当客户端接收到应用请求时,将元数据位置查询任务下发给元数据位置服务模块进行处理,元数据位置服务模块通常操作内存缓存,在必要时,元数据位置服务模块进行磁盘访问操作。
在元数据管理层(即,元数据服务模块)中,仅涉及到文件级别元数据的管理,目录级别的元数据管理由其上层(即,元数据位置管理层)进行管理。对于存储系统中的每一个文件,都具有一个全局唯一的标识(ID),该ID是在文件生成时,由元数据位置服务模块负责分配的。该元数据服务模块管理的元数据信息包括文件的大小、时间信息、数据分布信息等,由于此类信息需要的存储空间较大,因此需要多台存储节点共同承担,同时采用节点内部RAID6和节点间副本技术,来实现元数据冗余。在可选实施例中,在元数据信息存储时,将全局ID分为若干区间,每个区间的元数据信息存储在一个存储节点,以实现存储空间的均衡(参考图4)。
以下将对元数据位置存储节点和元数据存储节点进行描述。
当N个元数据存储节点的存储空间不足时,在线添加扩展元数据存储节点,并且将存储在N个元数据存储节点上的M个子集的一部分转存至扩展元数据存储节点上。具体地,随着存储文件的增加,在该存储结构的存储空间不足时,可以在线添加扩展元数据存储节点,并且将存储在N个元数据存储节点上的M个子集的一部分子集转存至新添加的元数据存储节点上,从而,在不影响该分布式文件系统的工作的情况下,也就是不必关闭系统就可以扩展存储空间的容量。
元数据位置服务模块位于一个或多个存储节点组上,每个存储节点组都包括一个主存储节点和一个从存储节点,并且主存储节点和从存储节点互为镜像存储节点。具体地,元数据位置服务模块位于一个或多个存储节点组(即,元数据位置存储节点对)上。当一个或多个存储节点组的存储空间不足时,以存储节点组为单位在线添加扩展存储节点组,并且将后续要写入的元数据的元数据位置的信息存储在扩展存储节点组上。具体地,当该分布式文件系统的一个或多个存储节点组的存储空间不足时,可以以存储节点组为单位在线添加扩展节点组,并且将以后的数据请求要写入的元件数据的元数据位置的信息存储在扩展节点组上来实现元数据位置存储节点对的扩容。
以下将分别参考图5和图6描述元数据管理方法中的查询请求和存储请求的具体步骤。
在实施元数据管理方法的步骤之前,进一步包括:通过客户端向元数据位置服务模块发送元数据操作请求,其中,元数据操作请求包括:查询请求和存储请求。
图5为根据本发明的实施例的元数据管理方法的查询方法的具体流程的示图。参考图5,元数据管理方法的查询方法500包括以下具体步骤。当元数据操作请求为查询请求时,在步骤S502中,根据查询请求,在元数据位置服务模块中查找到元数据的全局唯一标识ID。具体地,当数据请求为查询请求时,根据查询请求的信息,在元数据位置服务模块中查找到元数据的全局唯一标识ID。在步骤S504中,将全局唯一标识ID传送给元数据服务模块。具体地,元数据位置服务模块在查找到元数据的全局唯一标识ID以后,将该全局唯一标识ID传送给元数据服务模块。在步骤S506中,根据所述全局唯一标识ID的一致性哈希映射查找到存储所述元数据的元数据存储节点,从所述元数据存储节点读取所述元数据并反馈给所述客户端。具体地,在元数据服务模块中,对全局唯一标识ID进行一致性哈希映射,因此,根据全局唯一标识ID的一致性哈希映射可以确定全局唯一标识ID位于M个子集中的哪个子集中,进而可以确定存储元数据的元数据存储节点,然后,元数据服务模块从元数据存储节点读取元数据并将读取的元数据通过客户端反馈给用户。
图6为根据本发明的实施例的元数据管理方法的存储方法的具体流程图。参考图6,元数据管理方法的存储方法600包括以下具体步骤。当元数据操作请求为存储请求时,在步骤S602中,根据存储请求,由元数据位置服务模块提供元数据的全局唯一标识ID。具体地,当元数据操作请求为存储请求时,元数据位置服务模块为该存储请求的要存储的元数据分配一个全局唯一标识ID。在步骤S604中,将全局唯一标识ID和元数据传送给元数据服务模块。具体地,元数据位置服务模块在分配完全局唯一标识ID以后,将分配的全局唯一标识ID和要存储的元数据传送给元数据服务模块。在步骤S606中,根据全局唯一标识ID的一致性哈希映射查找到要存储元数据的元数据存储节点,并将元数据存储在元数据存储节点中。具体地,在元数据服务模块中,对分配的全局唯一标识ID进行一致性哈希映射,因此,根据全局唯一标识ID的一致性哈希映射可以确定全局唯一标识ID位于M个子集中的哪个子集中,进而可以确定要存储的元数据的元数据存储节点,然后,元数据服务模块将要存储的元数据存储在确定的元数据存储节点上,然后将存储成功的信息和全局唯一标识ID通过客户端反馈给用户。
利用本发明实施例的元数据管理方法,能够获得以下技术效果:首先,在建立该分布式文件系统时,将元数据的管理划分为元数据位置管理层和元数据管理层,通过元数据位置管理层统一管理用户访问的元数据位置信息,然后元数据管理层根据元数据位置的信息将用户的访问请求分散到多个服务器上去执行,从而能够克服由于多个用户同时访问元数据存储系统所导致的系统响应时间长、反应慢、访问效率低等缺陷,因此,能够承受多个用户同时访问该存储系统所带来的访问压力,从而提高了系统性能。其次,该分布式文件系统的结构允许在线扩展元数据位置存储节点和元数据存储节点,从而解决了海量文件不断增加所引起的存储空间不足的问题。此外,可以将元数据位置服务模块中的存储请求和访问请求进行分离,从而避免了元数据位置服务模块成为整个存储系统的瓶颈。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种元数据管理方法,其特征在于,包括:
在元数据位置服务模块中获取元数据位置的信息;
将所述元数据位置的信息传送给元数据服务模块;以及
根据所述元数据位置的信息对元数据进行读写操作。
2.根据权利要求1所述的元数据管理方法,其特征在于,所述元数据位置为全局唯一标识ID,在所述元数据管理方法的步骤开始之前,进一步包括:
建立所有全局唯一标识ID和元数据存储位置之间的一致性哈希映射关系,并将所述元数据存储位置作为元数据存储位置集合;
将所述元数据存储位置集合划分为M个子集,其中,M为大于N的整数并且N为元数据存储节点的个数;
将所述M个子集分配给N个元数据存储节点;以及
根据所述一致性哈希映射关系,将具有所述全局唯一标识ID的元数据存储在与所述M个子集相对应的所述N个元数据存储节点上。
3.根据权利要求2所述的元数据管理方法,其特征在于,当所述N个元数据存储节点的存储空间不足时,在线添加扩展元数据存储节点,并且将存储在所述N个元数据存储节点上的M个子集的一部分转存至所述扩展元数据存储节点上。
4.根据权利要求1所述的元数据管理方法,其特征在于,所述元数据位置服务模块位于一个或多个存储节点组上,每个存储节点组都包括一个主存储节点和一个从存储节点,并且所述主存储节点和所述从存储节点互为镜像存储节点。
5.根据权利要求4所述的元数据管理方法,其特征在于,当所述一个或多个存储节点组的存储空间不足时,以存储节点组为单位在线添加扩展存储节点组,并且将后续要写入的所述元数据的所述元数据位置的信息存储在所述扩展存储节点组上。
6.根据权利要求1所述的元数据管理方法,其特征在于,在实施所述元数据管理方法的步骤之前,进一步包括:通过客户端向所述元数据位置服务模块发送元数据操作请求,其中,所述元数据操作请求包括:查询请求和存储请求。
7.根据权利要求6所述的元数据管理方法,其特征在于,当所述元数据操作请求为所述查询请求时,
根据所述查询请求,在所述元数据位置服务模块中查找到所述元数据的全局唯一标识ID;
将所述全局唯一标识ID传送给所述元数据服务模块;以及
根据所述全局唯一标识ID的一致性哈希映射查找到存储所述元数据的元数据存储节点,从所述元数据存储节点读取所述元数据并反馈给所述客户端。
8.根据权利要求6所述的元数据管理方法,其特征在于,当所述元数据操作请求为所述存储请求时,
根据所述存储请求,由所述元数据位置服务模块提供所述元数据的全局唯一标识ID;
将所述全局唯一标识ID和所述元数据传送给所述元数据服务模块;以及
根据所述全局唯一标识ID的所述一致性哈希映射查找到要存储所述元数据的元数据存储节点,并将所述元数据存储在所述元数据存储节点中。
9.根据权利要求1至8中的任一项所述的元数据管理方法,其特征在于,所述元数据服务模块用于管理包括文件的基本属性、用户数据存储位置信息以及文件扩展属性的元数据。
10.根据权利要求1至8中的任一项所述的元数据管理方法,其特征在于,所述元数据位置服务模块用于管理所述元数据位置信息和文件系统的目录树结构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310256313.9A CN103310000B (zh) | 2013-06-25 | 2013-06-25 | 元数据管理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310256313.9A CN103310000B (zh) | 2013-06-25 | 2013-06-25 | 元数据管理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103310000A true CN103310000A (zh) | 2013-09-18 |
CN103310000B CN103310000B (zh) | 2017-06-16 |
Family
ID=49135218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310256313.9A Active CN103310000B (zh) | 2013-06-25 | 2013-06-25 | 元数据管理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103310000B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104113587A (zh) * | 2014-06-23 | 2014-10-22 | 华中科技大学 | 一种分布式文件系统客户端元数据缓存优化方法 |
CN104750756A (zh) * | 2013-12-31 | 2015-07-01 | 中国移动通信集团公司 | 一种数据操作方法、设备及元数据存储设备 |
CN105100815A (zh) * | 2015-07-22 | 2015-11-25 | 电子科技大学 | 基于时间序列的流式数据分布式元数据管理方法 |
CN105094992A (zh) * | 2015-09-25 | 2015-11-25 | 浪潮(北京)电子信息产业有限公司 | 一种处理文件请求的方法与系统 |
CN105718484A (zh) * | 2014-12-04 | 2016-06-29 | 中兴通讯股份有限公司 | 写文件、读文件、删除文件、查询文件的方法及客户端 |
CN107066503A (zh) * | 2017-01-05 | 2017-08-18 | 郑州云海信息技术有限公司 | 海量元数据分片分布的方法及装置 |
CN107135264A (zh) * | 2017-05-12 | 2017-09-05 | 成都优孚达信息技术有限公司 | 用于嵌入式设备的数据编码方法 |
CN107704462A (zh) * | 2016-08-08 | 2018-02-16 | 阿里巴巴集团控股有限公司 | 资源的元数据维护方法、设备及存储装置 |
CN108664268A (zh) * | 2018-05-11 | 2018-10-16 | 国云科技股份有限公司 | 一种云平台应用集群的模板角色管理方法 |
CN109086457A (zh) * | 2018-09-05 | 2018-12-25 | 华南理工大学 | 一种分布式视频帧随机读取的元数据服务系统及工作方法 |
CN110413694A (zh) * | 2019-08-01 | 2019-11-05 | 重庆紫光华山智安科技有限公司 | 元数据管理方法及相关装置 |
CN110598053A (zh) * | 2019-08-16 | 2019-12-20 | 上海爱数信息技术股份有限公司 | 一种基于对象树的元数据管理方法及管理系统 |
WO2020083106A1 (zh) * | 2018-10-25 | 2020-04-30 | 华为技术有限公司 | 存储系统中的节点扩容方法和存储系统 |
CN112974289A (zh) * | 2020-11-09 | 2021-06-18 | 重庆康佳光电技术研究院有限公司 | 分选方法、分选装置、计算机可读存储介质及电子设备 |
CN113010486A (zh) * | 2021-02-05 | 2021-06-22 | 湖南国科亿存信息科技有限公司 | 用于无中心分布式文件系统的元数据分层缓存方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070239949A1 (en) * | 2006-03-31 | 2007-10-11 | Lenovo (Singapore) Pte. Ltd. | Method and apparatus for reclaiming space in memory |
CN101408880A (zh) * | 2007-10-12 | 2009-04-15 | 三星电子株式会社 | 使用分割文件元数据的文件管理方法和装置 |
CN103067461A (zh) * | 2012-12-18 | 2013-04-24 | 曙光信息产业(北京)有限公司 | 一种文件的元数据管理系统以及元数据管理方法 |
-
2013
- 2013-06-25 CN CN201310256313.9A patent/CN103310000B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070239949A1 (en) * | 2006-03-31 | 2007-10-11 | Lenovo (Singapore) Pte. Ltd. | Method and apparatus for reclaiming space in memory |
CN101408880A (zh) * | 2007-10-12 | 2009-04-15 | 三星电子株式会社 | 使用分割文件元数据的文件管理方法和装置 |
CN103067461A (zh) * | 2012-12-18 | 2013-04-24 | 曙光信息产业(北京)有限公司 | 一种文件的元数据管理系统以及元数据管理方法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104750756A (zh) * | 2013-12-31 | 2015-07-01 | 中国移动通信集团公司 | 一种数据操作方法、设备及元数据存储设备 |
CN104750756B (zh) * | 2013-12-31 | 2018-09-04 | 中国移动通信集团公司 | 一种数据操作方法、设备及元数据存储设备 |
CN104113587B (zh) * | 2014-06-23 | 2017-08-01 | 华中科技大学 | 一种分布式文件系统客户端元数据缓存优化方法 |
CN104113587A (zh) * | 2014-06-23 | 2014-10-22 | 华中科技大学 | 一种分布式文件系统客户端元数据缓存优化方法 |
CN105718484A (zh) * | 2014-12-04 | 2016-06-29 | 中兴通讯股份有限公司 | 写文件、读文件、删除文件、查询文件的方法及客户端 |
CN105100815A (zh) * | 2015-07-22 | 2015-11-25 | 电子科技大学 | 基于时间序列的流式数据分布式元数据管理方法 |
CN105094992A (zh) * | 2015-09-25 | 2015-11-25 | 浪潮(北京)电子信息产业有限公司 | 一种处理文件请求的方法与系统 |
CN105094992B (zh) * | 2015-09-25 | 2018-11-02 | 浪潮(北京)电子信息产业有限公司 | 一种处理文件请求的方法与系统 |
CN107704462B (zh) * | 2016-08-08 | 2021-07-06 | 阿里巴巴集团控股有限公司 | 资源的元数据维护方法、设备及存储装置 |
CN107704462A (zh) * | 2016-08-08 | 2018-02-16 | 阿里巴巴集团控股有限公司 | 资源的元数据维护方法、设备及存储装置 |
CN107066503A (zh) * | 2017-01-05 | 2017-08-18 | 郑州云海信息技术有限公司 | 海量元数据分片分布的方法及装置 |
CN107135264A (zh) * | 2017-05-12 | 2017-09-05 | 成都优孚达信息技术有限公司 | 用于嵌入式设备的数据编码方法 |
CN108664268A (zh) * | 2018-05-11 | 2018-10-16 | 国云科技股份有限公司 | 一种云平台应用集群的模板角色管理方法 |
CN109086457A (zh) * | 2018-09-05 | 2018-12-25 | 华南理工大学 | 一种分布式视频帧随机读取的元数据服务系统及工作方法 |
CN109086457B (zh) * | 2018-09-05 | 2022-03-29 | 华南理工大学 | 一种分布式视频帧随机读取的元数据服务系统及工作方法 |
WO2020083106A1 (zh) * | 2018-10-25 | 2020-04-30 | 华为技术有限公司 | 存储系统中的节点扩容方法和存储系统 |
CN110413694A (zh) * | 2019-08-01 | 2019-11-05 | 重庆紫光华山智安科技有限公司 | 元数据管理方法及相关装置 |
CN110598053A (zh) * | 2019-08-16 | 2019-12-20 | 上海爱数信息技术股份有限公司 | 一种基于对象树的元数据管理方法及管理系统 |
CN112974289A (zh) * | 2020-11-09 | 2021-06-18 | 重庆康佳光电技术研究院有限公司 | 分选方法、分选装置、计算机可读存储介质及电子设备 |
CN112974289B (zh) * | 2020-11-09 | 2023-04-28 | 重庆康佳光电技术研究院有限公司 | 分选方法、分选装置、计算机可读存储介质及电子设备 |
CN113010486A (zh) * | 2021-02-05 | 2021-06-22 | 湖南国科亿存信息科技有限公司 | 用于无中心分布式文件系统的元数据分层缓存方法及装置 |
CN113010486B (zh) * | 2021-02-05 | 2021-11-26 | 湖南国科亿存信息科技有限公司 | 用于无中心分布式文件系统的元数据分层缓存方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103310000B (zh) | 2017-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103310000A (zh) | 元数据管理方法 | |
JP5411250B2 (ja) | 冗長データ記憶システムへの指示に従ってのデータ配置 | |
CN101997918B (zh) | 异构san环境中的海量存储资源按需分配的实现方法 | |
CN101692239B (zh) | 一种分布式文件系统元数据分配方法 | |
CN104348679B (zh) | 一种分桶测试的方法、装置和系统 | |
CN103067461B (zh) | 一种文件的元数据管理系统以及元数据管理方法 | |
US8832113B2 (en) | Data management apparatus and system | |
US8214355B2 (en) | Small table: multitenancy for lots of small tables on a cloud database | |
CN103647797A (zh) | 一种分布式文件系统及其数据访问方法 | |
US9223800B1 (en) | Cluster file system providing object store and functionality for transformation of metadata files into objects | |
WO2011120791A1 (en) | Transmission of map-reduce data based on a storage network or a storage network file system | |
CN103544045A (zh) | 一种基于hdfs的虚拟机镜像存储系统及其构建方法 | |
CN107667363A (zh) | 具有多种可选数据处理策略的基于对象的存储集群 | |
CN101354726A (zh) | 一种机群文件系统的内存元数据管理方法 | |
US10102219B2 (en) | Rendering high resolution images using image tiling and hierarchical image tile storage structures | |
CN102819599A (zh) | 在一致性哈希数据分布基础上构建层次目录的方法 | |
US9110820B1 (en) | Hybrid data storage system in an HPC exascale environment | |
CN106570113B (zh) | 一种海量矢量切片数据云存储方法及系统 | |
CN103870202A (zh) | 一种块设备的分布式存储方法和系统 | |
CN105354250A (zh) | 一种面向云存储的数据存储方法及装置 | |
CN109933312A (zh) | 一种有效降低容器化关系型数据库i/o消耗的方法 | |
US8386741B2 (en) | Method and apparatus for optimizing data allocation | |
US10534765B2 (en) | Assigning segments of a shared database storage to nodes | |
US20130058333A1 (en) | Method For Handling Requests In A Storage System And A Storage Node For A Storage System | |
EP4016312B1 (en) | Data operations using a cache table in a file system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220126 Address after: 300450 3 / F, No. 15, Haitai Huake street, Huayuan Industrial Zone (outer ring), Tianjin Binhai New Area, Tianjin Patentee after: Tianjin Zhongke Shuguang Storage Technology Co.,Ltd. Address before: 100193 No. 36 Building, No. 8 Hospital, Wangxi Road, Haidian District, Beijing Patentee before: Dawning Information Industry (Beijing) Co.,Ltd. |
|
TR01 | Transfer of patent right |