CN114625713A - 一种存储系统中元数据管理方法、装置及存储系统 - Google Patents
一种存储系统中元数据管理方法、装置及存储系统 Download PDFInfo
- Publication number
- CN114625713A CN114625713A CN202110245752.4A CN202110245752A CN114625713A CN 114625713 A CN114625713 A CN 114625713A CN 202110245752 A CN202110245752 A CN 202110245752A CN 114625713 A CN114625713 A CN 114625713A
- Authority
- CN
- China
- Prior art keywords
- metadata
- storage
- metadata file
- file
- writing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 536
- 238000007726 management method Methods 0.000 title abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000015654 memory Effects 0.000 claims description 129
- 238000012986 modification Methods 0.000 claims description 42
- 230000004048 modification Effects 0.000 claims description 42
- 238000004590 computer program Methods 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 15
- 230000003321 amplification Effects 0.000 description 14
- 238000003199 nucleic acid amplification method Methods 0.000 description 14
- 230000002085 persistent effect Effects 0.000 description 12
- 238000013500 data storage Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000002688 persistence Effects 0.000 description 7
- 239000002699 waste material Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 208000031339 Split cord malformation Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 230000007334 memory performance Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000004645 scanning capacitance microscopy Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000010922 spray-dried dispersion Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000013068 supply chain management Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/1805—Append-only file systems, e.g. using logs or journals to store data
- G06F16/1815—Journaling file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/185—Hierarchical storage management [HSM] systems, e.g. file migration or policies thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2246—Trees, e.g. B+trees
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供了一种存储系统中元数据管理方法、装置及存储系统,该方法由存储系统中的一个或多个处理器执行,该方法包括以下步骤:在存储系统的第一存储层存储不可修改写的第一元数据文件,在第二存储层存储可修改写的第二元数据文件,第一存储层基于日志结构树管理第一元数据文件,第二存储层基于非日志结构树管理第二元数据文件。使用该元数据管理方法,可将顺序写请求的元数据直接写入第二存储层,消除存储层合并带来的系统开销,解决在大容量场景下存储系统合并任务耗时久、资源消耗大的问题。
Description
技术领域
本申请涉及存储领域,尤其涉及一种存储系统中元数据管理方法、装置及存储系统。
背景技术
随着科学技术的不断发展,信息爆炸时代产生的海量数据已经渗透到当今每一个行业和业务职能领域,信息爆炸使得存储系统的读写要求也越来越高。为了提高存储系统的读写能力,优化数据文件的组织方式,基于日志的数据库系统被广泛应用在各行各业。
结构化合并树(log structured merge tree,LSM tree)是基于日志(log)的数据库系统中的常用存储结构之一,LSM树是一个多层结构,最上层C0位于内存,后面多层C1~Ck位于硬盘。在LSM树的用于管理元数据写入场景中,新写入的元数据会首先存储至最上层C0的文件中,最上层C0中元数据量达到一定程度后,该文件变成不可修改写文件,最上层C0中的该文件将会与下一层C1中的不可修改写文件进行合并(compaction),从而获得新的不可修改写文件,然后顺序写入硬盘中的C2层,以此类推,使得旧元数据可以不断被删除,新元数据能够不断被写入至硬盘中。由于各层的合并是异步进行的,对新元数据的写不会产生影响,从而使得LSM树的写入速度得以提升。
但是,在大容量场景下,基于日志结构树的存储系统在经过多层合并之后,越底层的元数据量越大,使得越底层的合并任务执行耗时越久,系统资源消耗越大。
发明内容
本申请提供了一种存储系统中元数据管理方法、装置及存储系统,可以解决基于日志结构树的存储系统合并任务耗时久、资源消耗大的问题。
第一方面,提供了一种存储系统中元数据管理方法,该方法由存储系统中的一个或多个处理器执行,该方法包括以下步骤:在存储系统的第一存储层存储不可修改写的第一元数据文件,在第二存储层存储可修改写的第二元数据文件;其中,第一存储层基于日志结构树管理第一元数据文件;第二存储层基于非日志结构树管理第二元数据文件。
具体实现中,非日志结构树可以是B树、B+树、字典序列树、跳表等等,本申请不作具体限定。
实施第一方面描述的方法,基于日志结构树管理第一存储层中不可修改写的第一元数据文件,基于非日志结构树管理第二存储层中可修改写的第二元数据文件,使得存储系统在元数据写场景,可将顺序写请求的元数据直接写入第二存储层,消除存储层合并带来的系统开销,同时,随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,从而解决在大容量场景下存储系统合并任务耗时久、资源消耗大的问题。
在一种可能的实现方式中,第一存储层可以包含多个元数据文件,比如,第一存储层还存储不可修改写的第三元数据文件,第一存储层基于日志结构树管理第三元数据文件,该方法还可包括以下步骤:合并第一元数据文件和第三元数据文件得到第四元数据文件,将第四元数据文件中存储的元数据写入到第二元数据文件。
具体实现中,第一存储层可以通过分层管理的方式,对多个元数据文件进行管理,比如第一存储层可包括第一存储子层和第二存储子层,第一存储子层用于存储第一元数据文件,第二存储子层用于存储第三元数据文件,多个存储子层按照从上至下的方式进行合并,然后将底部的存储子层中的数据写入第二元数据文件。也就是说,第一存储子层的第一元数据文件先与第二存储子层的第三元数据文件进行合并,获得第四元数据文件,然后将第四元数据文件中存储的元数据写入到第二元数据文件。
可以理解,另一种实现,也可以不对第一存储层进行进一步分层管理。即在第一存储层中的多个元数据文件(有序字符串表),根据第一存储层的容量,对多个元数据文件进行合并,然后写入第二存储层。
上述实现方式,第一存储层中包含多个元数据文件,且元数据文件之间可进行合并,将合并后的元数据文件再写入第二存储层,可以减少对第二存储层中第二元数据文件的修改次数,从而降低第二存储层的非日志结构树写放大问题的出现。其中,写放大问题指的是在对非日志结构树进行修改时,每次修改都需要遍历整个非日志结构树确定所需修改的叶子节点、中间节点和根节点等等,若每次修改量较小,而修改次数又较为频繁,将会出现资源浪费的情况。而第一存储层中多个元数据文件之间合并后,再写入第二存储层,可以减少该写放大问题的出现,避免资源浪费。
在一种可能的实现方式中,将第四元数据文件中存储的元数据写入到第二元数据文件时,可将第四元数据文件和第二元数据文件进行排序,确定第二元数据文件的修改节点,然后对修改节点进行修改,将第四元数据文件中存储的元数据写入到第二元数据文件。
具体实现中,上述排序可以是归并排序,比如将同一元数据的不同版本进行排序,然后根据排序结果将第四元数据文件和第二元数据文件进行合并,获得合并文件,然后根据合并文件确定修改节点和修改内容。
上述实现方式,通过修改第二元数据文件中部分修改节点的方式,将第四元数据文件中存储的元数据写入到第二元数据文件,而基于LSM树的存储系统则需要将第四元数据文件和第二元数据文件进行合并获得新文件,并将新文件完整写入第二存储层,以实现将第四元数据文件中存储的元数据写入到第二元数据文件的目的,二者相比,上述实现方式可以消除存储层合并带来的系统开销,提高元数据持久化存储的效率。
在一种可能的实现方式中,对修改节点进行修改时,可以以事务写的方式,对修改节点进行批量修改。比如根据合并文件确定要对多个修改节点进行修改,那么可以将多个修改操作添加至一个事务中,以事务为单位进行本次修改操作,可以确保多个修改操作的一致性,从而完成对第二元数据文件的修改。
上述实现方式,通过修改第二元数据文件的方式对元数据进行持久化存储,并且以事务写所需的少量开销换取存储层合并时带来的巨额开销,可以解决存储系统合并任务耗时久、资源消耗大的问题。
在一种可能的实现方式中,存储系统可包括一个或多个存储设备,该存储设备用于提供第一存储层和第二存储层,该存储设备可以是机械硬盘(hard disk drive,HDD)、固态硬盘(solid-state drive,SSD)、混合硬盘(solid state hybrid drive,SSHD)、存储级内存(storage class memory,SCM)等等中任意一种,还可以是上述各种存储介质的组合,本申请不作具体限定。
具体实现中,根据第四元数据文件对第二元数据文件进行修改时,若存储设备是SCM的情况下,由于SCM是读写性能接近内存的存储介质,可以直接以原地修改写(write-in-place)的方式,对第二元数据文件进行修改,实现元数据的持久化存储。若存储设备是SSD的情况下,由于SSD的固有特性导致其需要进行垃圾回收(garbage collection,GC),为了减少GC带来的写放大问题,SSD可以以写时重定向(redirect-on-write,ROW)方式将对元数据进行持久化处理。若存储设备是HDD的情况下,由于HDD的随机写性能较差,因此HDD可以以ROW方式,将多个随机写的小写请求转化为顺序大写请求,实现元数据的持久化存储。
在一种可能的实现方式中,该方法还可包括以下步骤:接收顺序写请求,该顺序写请求中携带元数据,将顺序写请求中携带的元数据写入该第二元数据文件中。
具体实现中,在接收到顺序写请求时,存储系统还可先确定内存和第一存储层中是否存在该顺序写请求所携带的元数据的历史版本,若不存在,再将该元数据直接写入第二元数据文件中,否则,将该元数据写入内存中,从而避免查询元数据时,内存中的元数据版本不是最新的元数据版本,提高元数据读取的可靠性。
上述实现方式,将顺序写请求中的元数据直接写入第二元数据文件中,从而消除存储层合并带来的系统开销,提高元数据持久化的效率。
在一可能的实现方式中,该方法还可包括以下步骤:接收随机写请求,该随机写请求中携带元数据,将随机写请求中携带的元数据写入内存中。
具体实现中,可将随机写请求中携带的元数据写入内存中的内存表,这样,当内存表中的数据量达到阈值时,内存表切换为不可修改内存表,元数据可随着不可修改内存表,被写入第一存储层中,当第一存储层中的数据量达到上限时,元数据可随着第一存储层中的元数据文件的合并,被写入第二存储层,具体可对第二存储层中的第二元数据文件进行修改,比如修改元数据对应的部分叶子节点、根节点和中间节点等等,并将修改操作添加入一个事务中,以事务写的方式批量修改第二元数据文件中的修改节点,从而实现将元数据进行持久化存储的目的。
上述实现方式,通过将随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,从而解决基于日志结构树的存储系统在大容量场景下,占用存储空间且系统资源消耗越大的问题。
在一可能实现方式中,存储系统在接收到元数据的查询请求时,可依次查询内存、第一存储层以及第二存储层,直至读取到该元数据。若第一存储层包括多个存储子层,那么存储系统在查询第一存储层时,按照合并顺序对第一存储层进行查询,比如第一存储层包括L0层和L1层,且L0层中的元数据文件达到上限后,将会向L1层中的元数据文件进行合并,那么在读取元数据时,可先查询L0再查询L1,以此类推,这里不一一举例说明。
上述实现方式,在处理元数据查询请求时,依次查询内存、第一存储层和第二存储层直至读取到该元数据,且最后的第二存储层只有一棵非日志结构树,因此在元数据查询时,相比于由多个存储层构成的LSM树,上述存储系统的查询效率可以提升,提高用户的使用体验。
可以理解的,在混合负载场景下,即写入请求和查询请求并存的应用场景下,对于基于日志结构树的存储系统来说,为了提高基于日志结构树的存储系统处理查询请求的效率,需减少日志结构树的存储层数量,但是处理写入请求时,由于存储层数量较少,无法实现对多个写入请求的聚合,导致日志结构树写放大问题的出现,导致资源浪费;若日志结构树的存储层数量较多时,写放大问题虽然得以解决,但是处理查询请求时,需要查询大量的存储层以获取元数据,查询效率变低,这一不可调和的原因导致基于日志结构树的存储系统在混合负载场景下的性能较差。而本申请提供的存储系统,在处理查询请求时由于存储层数较少,查询效率很高,且处理顺序写请求时,可将顺序写请求携带的元数据直接写入可修改的第二元数据文件中,消除存储层合并带来的系统开销,处理随机写请求时,可将随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,使得本申请提供的存储系统混合负载场景下,仍可保证较高的查询效率和存储效率。
第二方面,提供了一种存储系统,该存储系统包括含一个或多个处理器以及与一个或多个处理器通信的存储设备,该存储设备用于提供第一存储层和第二存储层,上述一个或多个处理器用于:在存储系统的第一存储层存储不可修改写的第一元数据文件,在第二存储层存储可修改写的第二元数据文件,在第一存储层基于日志结构树管理第一元数据文件,在第二存储层基于非日志结构树管理第二元数据文件。
具体实现中,该存储设备可以是HDD、SSD、SCM等等中任意一种,还可以是上述各种存储介质的组合,本申请不作具体限定。
实施第二方面描述的存储系统,可基于日志结构树管理第一存储层中不可修改写的第一元数据文件,基于非日志结构树管理第二存储层中可修改写的第二元数据文件,使得存储系统在元数据写场景,可将顺序写请求的元数据直接写入第二存储层,消除存储层合并带来的系统开销,同时,随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,从而解决在大容量场景下存储系统合并任务耗时久、资源消耗大的问题。
可选地,第一存储层还存储不可修改写的第三元数据文件,第一存储层基于日志结构树管理第三元数据文件,一个或多个处理器还用于:合并第一元数据文件和第三元数据文件得到第四元数据文件,将第四元数据文件中存储的元数据写入到第二元数据文件。
具体实现中,第一存储层可以通过分层管理的方式,对多个元数据文件进行管理,比如第一存储层可包括第一存储子层和第二存储子层,第一存储子层用于存储第一元数据文件,第二存储子层用于存储第三元数据文件,多个存储子层按照从上至下的方式进行合并,然后将底部的存储子层中的数据写入第二元数据文件。也就是说,第一存储子层的第一元数据文件先与第二存储子层的第三元数据文件进行合并,获得第四元数据文件,然后将第四元数据文件中存储的元数据写入到第二元数据文件。
可以理解,另一种实现,也可以不对第一存储层进行进一步分层管理。即在第一存储层中的多个元数据文件(有序字符串表),根据第一存储层的容量,对多个元数据文件进行合并,然后写入第二存储层。
可选地,上述一个或多个处理器将第四元数据文件中存储的元数据写入到第二元数据文件时,可将第四元数据文件和第二元数据文件进行排序,确定第二元数据文件的修改节点,然后对修改节点进行修改,将第四元数据文件中存储的元数据写入到第二元数据文件。
具体实现中,上述排序可以是归并排序,比如将同一元数据的不同版本进行排序,然后根据排序结果将第四元数据文件和第二元数据文件进行合并,获得合并文件,然后根据合并文件确定修改节点和修改内容。
可选地,上述一个或多个处理器用于对修改节点进行修改时,可以以事务写的方式,对修改节点进行批量修改。比如根据合并文件确定要对多个修改节点进行修改,那么可以将多个修改操作添加至一个事务中,以事务为单位进行本次修改操作,可以确保多个修改操作的一致性,从而完成对第二元数据文件的修改。
可选地,根据第四元数据文件对第二元数据文件进行修改时,若存储设备是SCM的情况下,由于SCM是读写性能接近内存的存储介质,可以直接以原地修改写的方式,对第二元数据文件进行修改,实现元数据的持久化存储。若存储设备是SSD的情况下,由于SSD的固有特性导致其需要进行GC,为了减少GC带来的写放大问题,SSD可以以ROW方式将对元数据进行持久化处理。若存储设备是HDD的情况下,由于HDD的随机写性能较差,因此HDD可以以ROW方式,将多个随机写的小写请求转化为顺序大写请求,实现元数据的持久化存储。
可选地,上述一个或多个处理器用于接收顺序写请求,该顺序写请求中携带元数据,将顺序写请求中携带的元数据写入该第二元数据文件中。
具体实现中,在接收到顺序写请求时,存储系统还可先确定内存和第一存储层中是否存在该顺序写请求所携带的元数据的历史版本,若不存在,再将该元数据直接写入第二元数据文件中,否则,将该元数据写入内存中,从而避免查询元数据时,内存中的元数据版本不是最新的元数据版本,提高元数据读取的可靠性。
可选地,上述一个或多个处理器用于接收随机写请求,该随机写请求中携带元数据,将随机写请求中携带的元数据写入内存中。
具体实现中,可将随机写请求中携带的元数据写入内存中的内存表,这样,当内存表中的数据量达到阈值时,内存表切换为不可修改内存表,元数据可随着不可修改内存表,被写入第一存储层中,当第一存储层中的数据量达到上限时,元数据可随着第一存储层中的元数据文件的合并,被写入第二存储层,具体可对第二存储层中的第二元数据文件进行修改,比如修改元数据对应的部分叶子节点、根节点和中间节点等等,并将修改操作添加入一个事务中,以事务写的方式批量修改第二元数据文件中的修改节点,从而实现将元数据进行持久化存储的目的。
可选地,上述一个或多个处理器用于接收到元数据的查询请求,然后根据该查询请求,可依次查询内存、第一存储层以及第二存储层,直至读取到该元数据。若第一存储层包括多个存储子层,那么存储系统在查询第一存储层时,按照合并顺序对第一存储层进行查询,比如第一存储层包括L0层和L1层,且L0层中的元数据文件达到上限后,将会向L1层中的元数据文件进行合并,那么在读取元数据时,可先查询L0再查询L1,以此类推,这里不一一举例说明。
第三方面,提供了一种存储系统中的元数据管理装置,该元数据管理装置可包括:第一存储单元,用于在存储系统的第一存储层存储不可修改写的第一元数据文件,第二存储单元,用于在存储系统的第二存储层存储可修改写的第二元数据文件,第一存储层基于日志结构树管理第一元数据文件,第二存储层基于非日志结构树管理第二元数据文件。
实施第三方面描述的元数据管理装置,可基于日志结构树管理第一存储层中不可修改写的第一元数据文件,基于非日志结构树管理第二存储层中可修改写的第二元数据文件,使得存储系统在元数据写场景,可将顺序写请求的元数据直接写入第二存储层,消除存储层合并带来的系统开销,同时,随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,从而解决在大容量场景下存储系统合并任务耗时久、资源消耗大的问题。
可选地,第一存储层还存储不可修改写的第三元数据文件;第一存储层基于日志结构树管理第三元数据文件;元数据管理装置还包括:合并单元,用于合并第一元数据文件和第三元数据文件得到第四元数据文件;第一写入单元,用于将第四元数据文件中存储的元数据写入到第二元数据文件。
可选地,元数据管理装置还包括:接收单元,用于接收顺序写请求;顺序写请求中携带元数据;第二写入单元,用于将顺序写请求中携带的元数据写入第二元数据文件中。
可选地,第二存储层基于B树管理第二元数据文件。
可选地,第二存储层基于B+树管理第二元数据文件。
可选地,第一写入单元具体用于:将第四元数据文件和第二元数据文件进行排序,确定第二元数据文件的修改节点;对修改节点进行修改,将第四元数据文件中存储的元数据写入到第二元数据文件。
可选地,第一写入单元具体用于:以事务写的方式,对修改节点进行批量修改。
第四方面,提供了一种存储阵列,包括存储控制器和至少一个存储器,其中,至少一个存储器用于提供第一存储层和第二存储层,还用于存储程序代码,存储控制器可执行该程序代码实现如第一方面描述的方法。
第五方面,提供了一种计算机程序产品,包括计算机程序,当计算机程序被计算设备读取并执行时,实现如第一方面所描述的方法。
第六方面,提供了一种计算机可读存储介质,包括指令,当指令在计算设备上运行时,使得计算设备实现如第一方面所描述的方法。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
图1是一种基于日志结构树的存储系统的架构示意图;
图2是本申请提供的一种存储系统的结构示意图;
图3是本申请提供的一种存储系统的结构树区域的结构示意图;
图4是本申请提供的一种存储系统中元数据管理方法的步骤流程示意图;
图5是本申请提供的一种写请求处理方法的流程示意图;
图6是本申请提供的一种元数据管理装置的结构示意图;
图7是本申请提供的一种存储阵列的硬件结构示意图。
具体实施方式
为了便于理解本发明的技术方案,应理解,本申请的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
为了便于理解本申请实施例,首先,对本申请涉及的应用场景“日志结构树”进行简要说明。
由于硬盘的存储特性,使得顺序写操作的效率比随机写操作的效率高很多,因此存储系统往往基于这一特性对数据库进行设计和优化,其中,日志型数据库通过追加(append)的方式将数据写入硬盘,成为优化写性能的最佳实现方式之一,被广泛应用在存储系统中。
日志型数据库是一种可视为电子化的文件柜,是一个有组织、可共享、统一管理的大量数据的集合。用户可对日志型数据库中的文件进行新增、查询、更新和删除等操作,数据库接收到用户的操作请求后,生成本次修改的日志存储于日志盘中,再在内存中对文件所在的内存页进行修改。当内存页中的数据达到一定阈值,比如内存页满了以后,内存页中的数据再刷入硬盘进行持久化处理。因此,日志型数据库可以免于在每次修改数据时,产生大量的需要写入硬盘的随机写请求,从而减少硬盘写操作的次数,并且,日志型数据库可以通过写日志以及将内存页中的数据合并后写入硬盘的方式,将多个随机写请求转化为顺序写请求,提高存储效率,同时,在内存发生故障时,可根据日志盘中的日志,恢复内存中的文件,提高数据库的可靠性。
但是,单纯的日志型数据库的读性能很差,在读数据场景中,可能要遍历全部日志记录才能找到一条数据。为优化日志型数据库,用于管理日志型数据库的日志结构树应运而生,其中,LSM树作为一种日志结构树,可以将效率较低的随机写操作转化为效率较高的顺序写操作,使得写性能提升的同时,读性能的影响降到最低,被广泛应用在日志型数据库中。
图1是一种基于日志结构树的存储系统的架构示意图,如图1所示,该存储系统110可包括内存110和硬盘120。其中,内存110包括内存表(memtable)111和不可修改内存表(immutable memtable)112,硬盘120包括有序字符串表(sorted string table,SStable)123、日志存储区域121以及数据存储区域122。
内存110中的内存表111可用于存储数据的元数据,元数据指的是描述数据的数据,该元数据可包括数据的存储地址、长度、数据类型等描述信息,具体实现中,内存表111中的元数据可以被修改,且内存表111按照键值对的形式将元数据进行有序存储。其中,键值对(key,value):键值对是一种字符串,K代表键(key),key可以是数据的名称或者标识,V代表该键对应的值(value),value可根据业务需求定义,比如可以是数据的位置信息等,每个key对应至少一个value。比如K=数据X,V=数据X的元数据。该种存储方式可通过单键查询、组合键查询以及范围键的查询,简单、快速地获得业务所需的数据。
内存110中的不可修改内存表112用于存储不可修改的元数据,其中,内存表111中的元数据达到阈值后,内存表111可切换为不可修改内存表112,然后创建新的内存表111用于存储最近更新的元数据,而不可修改内存表112将会被批量刷入硬盘120中进行持久化处理。
硬盘120中的日志存储区域121用于存储日志。应理解,由于内存110不是可靠存储,如果断电会导致内存110中的数据丢失,因此可通过预写式日志(write-aheadlogging,WAL)来确保可靠性。WAL是一种实现事务日志的标准方法。在基于LSM存储元数据的场景下,其核心思想是对元数据的修改必须且只能发生在日志修改之后,换句话说,修改元数据时,先修改操作记录在日志文件,然后再修改元数据。使用WAL进行数据存储,可以免于在每次修改元数据时,都将元数据冲刷进硬盘,减少硬盘写的次数,同时,由于WAL在硬盘中存储,当元数据先被写进内存,还未被冲刷进硬盘时,若内存发生故障,此时可根据WAL对元数据进行回恢复。
硬盘120中的数据存储区域122用于存储数据,也就是数据进行持久化存储的区域。硬盘120中的有序字符串表123基于日志结构树对元数据进行管理,该日志结构树可以是LSM树,LSM的组织结构包含多个存储层(例如图1中的C0层、C1层、C2层和C3层),其中,越上层的存储层其存储空间越小,越下层的存储层其存储空间越大。且不可修改内存表112被冲刷(flush)进硬盘时,先写入有序字符串表123的顶层,最上层C0中数据量达到一定程度后,最上层C0中的有序字符串表合并后会存储到C1层,C1层中的有序字符串表合并后得到有序字符串表写入C1层,以此类推,使得旧数据可以不断被删除,新数据能够不断被写入至硬盘中。在存储元数据场景中,内存表、不可修改内存表和有序字符串表也称为元数据文件。
因此,当图1所示的存储系统100接收数据X的写请求时,该系统100可先将本次写请求的数据X写入数据存储区域122,再将数据X在数据存储区域122中的地址等元数据信息Y写入日志中,将日志存储至日志存储区域121,最后将数据X的元数据Y写入内存表111。这样,当存储系统100再接收到数据X的写请求时,存储系统100可以将本次修改后的数据X追加写入数据存储区域122,将修改后的数据X对应的元数据追加写入日志中,对内存表111中的元数据进行修改。上述过程中,存储系统100可以对接收到的数据先进行合并后再追加写,可以减少数据修改时磁盘写入的次数,提高存储效率。
而当内存表111中存储的数据量达到阈值后,内存表111将会切换为不可修改内存表112,并创建新的内存表111,而不可修改内存表112将会批量写入硬盘120的C0层进行持久化处理,假设如图1所示的,C0层的存储空间大小为300MB,C1层的存储空间大小为3GB,C2层的存储空间大小为30GB,C3层的存储空间大小为100GB,那么当C0层中的数据量达到300MB时,C0层中的不可修改内存表合并得到有序字符串表,将有序字符串表写入C1层。同理,当C1层中的数据量达到3GB时,C1层中的有序字符串表合并得到新的有序字符串表,将新的有序字符串表写入C2层。同时,由于各层的合并是异步进行的,对新数据的写不会产生影响,从而使得LSM树的写入速度得以提升。
但是,基于日志结构树的存储系统在大容量场景下,越底层的存储层中的数据量越大,一层存储层可能包括多个日志结构树,相邻两层之间的合并任务执行耗时较久,占用存储空间且系统资源消耗越大。
为了解决上述存储系统的资源消耗大、合并任务耗时久等问题,本申请提供了一种存储系统200,该存储系统包括第一存储层和第二存储层。在管理元数据场景,第一存储层基于日志结构树管理可不修改写的元数据文件,第二存储层基于非日志结构树管理可修改写的元数据文件。在元数据写场景,该存储系统可将顺序写请求的元数据直接写入第二存储层,消除存储层合并带来的系统开销,同时,随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,从而解决在大容量场景下存储系统合并任务耗时久、资源消耗大的问题。
其中,本申请提供的存储系统200可以部署于存储系统中,存储系统中包含一个或多个处理器。处理器可以是X86或ARM处理器等等。存储系统可以是集中式的存储阵列,还可以是分布式存储系统,本申请不作具体限定。
如图2所示,图2是本申请提供的一种存储系统的结构示意图。该存储系统200可包括内存210、硬盘220以及一个或多个处理器230,图2以1个处理器230为例进行了说明,具体实现中,本申请不对存储器230的数量进行限制。内存210、硬盘220以及一个或多个处理器230之间可以通过总线相互连接,比如快捷外围部件互连标准(peripheral componentinterconnect express,PCIe)总线或扩展工业标准结构(extended industry standardarchitecture,EISA)总线等,也可以通过有线传输等其他手段实现通信,比如以太网(Ethernet),本申请不作具体限定。应理解,图2仅为一种示例性的划分方式,各个模块单元之间可以合并或者拆分为更多或更少的模块单元,本申请不作具体限定,且图2中所示的系统和模块之间的位置关系也不构成任何限制。
内存210可以是只读存储器(read-only memory,ROM)、随机存储器(randomaccess memory,RAM)、动态随机存储器(dynamic random-access memory,DRAM)、双倍速率同步动态随机存储器(double data rate SDRAM,DDR)、存储级内存(storage classmemory,SCM)等等中任意一种,内存210还可以是上述各种存储介质的组合,本申请不作具体限定。其中,内存210存储不可修改内存表212和内存表211。应理解,关于内存210、不可修改内存表212以及内存表211的描述可以参考图1实施例中的内存110、不可修改内存表112以及内存表111,这里不重复赘述。
硬盘220可以是机械硬盘(hard disk drive,HDD)、固态硬盘(solid-statedrive,SSD)、混合硬盘(solid state hybrid drive,SSHD)、SCM等等中任意一种,还可以是上述各种存储介质的组合,本申请不作具体限定。其中,硬盘220包括日志存储区域221、数据存储区域222以及结构树区域223。在存储系统200部署于存储阵列或者分布式存储系统时,日志存储区域221、数据存储区域222以及结构树区域223可以在同一个硬盘中,也可以在不同的硬盘中,图2是一种示例性的划分方式,本申请不对此进行限定。
应理解,日志存储区域221、数据存储区域222的描述可以参考图1实施例中的日志存储区域121、数据存储区域122,这里不重复赘述,下面主要对硬盘220中的结构树区域223进行解释说明。
如图2所示,硬盘220中的结构树区域223包括第一存储层2231和第二存储层2232,应理解,在存储系统200部署于存储阵列或者分布式存储系统时,第一存储层2231和第二存储层2232可以在同一个硬盘中,也可以在不同的硬盘中,本申请不对此进行限定。其中,第一存储层2231可存储不可修改写的第一元数据文件,第一存储层基于日志结构树管理该第一元数据文件。具体实现中,日志结构树可以是LSM树,该第一元数据文件可以是不可修改内存表212中的数据写入第一存储层2231后获得的。也就是说,内存表211中的数据在达到阈值后,内存表211将会切换为不可修改内存表212,并创建新的内存表211用于处理新数据,而不可修改内存表212中的数据可写入第一存储层2231中,第一存储层2231中的数据即为第一元数据文件。该第一元数据文件也可以是合并得到的有序字符串表。
第二存储层2232存储可修改写的第二元数据文件,第二存储层基于非日志结构树管理该第二元数据文件。具体实现中,非日志结构树可以是B树(B tree)、B+树(B+tree)、字典序列树(trie tree)、跳表(skip list)等等,本申请不作具体限定。其中,第二元数据文件可以用于存储第一存储层2231合并得到的有序字符串表中的元数据。具体的,第一存储层2231中的数据达到上限时,存储系统200可根据第一存储层2231中的不可修改写的元数据文件(有序字符串表)合并得到有序字符串表,确定第二存储层2232所需修改的修改节点,然后对其进行修改,将该有序字符串表中的元数据写入第二存储层2232中第二元数据文件,从而避免在大容量场景下第二存储层2232进行合并带来的巨额开销,降低存储系统200的资源消耗。
一个或多个处理器230可以由至少一个通用处理器构成,例如中央处理器(central processing unit,CPU),或者CPU和硬件芯片的组合,上述硬件芯片可以是专用集成电路(applicaition specific integrated circuit,ASIC)、可编程逻辑器件(programmable logic device,PLD)或其组合,上述PLD可以是复杂程序逻辑器件(complexprogrammable logical device,CPLD),现场可编程门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合,本申请不作具体限定。处理器230可执行各种类型的程序代码,以使存储系统200实现各种功能。具体地,一个或多个处理器230可用于在存储系统100的第一存储层2231存储不可修改写的第一元数据文件,在第二存储层2232存储可修改写的第二元数据文件,在第一存储层2231基于日志结构树管理第一元数据文件,在第二存储层基于非日志结构树管理第二元数据文件。
在一可能的实现方式中,第一存储层2231可以包含多个元数据文件(有序字符串表),例如,第一存储层还可存储不可修改的第三元数据文件,第一存储层基于该日志结构树管理第三元数据文件。存储系统200将第一元数据文件和第三元数据文件进行合并获得第四元数据文件,根据第四元数据文件对第二元数据文件进行修改,完成元数据的持久化存储。
例如,图3是本申请提供的一种存储系统的结构树区域的结构示意图,是图2中的结构树区域223的一种示例性的划分方式,图3以第一存储层2231包括两个存储子层L0和L1为例进行了举例说明,具体实现中,本申请不对存储子层的数量进行限定。在图3所示的存储树区域233中,当L0层中的第一元数据文件达到上限时,存储系统200可将第一元数据文件与L1层的第三元数据文件进行合并,生成第四元数据文件,然后将第三元数据文件删除,第四元数据文件写入L1层,当L1层中的第四元数据文件达到上限时,根据第四元数据文件和第二存储层2232中的第二元数据文件,对第二元数据文件进行修改,完成元数据的持久化存储。应理解,图3用于举例说明,本申请不作具体限定。
可以理解的,通过将第一存储层2231进一步划分为多个存储子层,多个存储子层按照从上至下的方式进行合并,根据最底部的存储子层中的数据对第二元数据文件进行修改,可以减少对第二存储层2232中第二元数据文件的修改次数,从而降低第二存储层2232的非日志结构树写放大问题的出现。其中,写放大问题指的是在对非日志结构树进行修改时,每次修改都需要遍历整个非日志结构树确定所需修改的叶子节点、中间节点和根节点等等,若每次修改量较小,而修改次数又较为频繁,将会出现资源浪费的情况。
可以理解,另一种实现,也可以不对第一存储层2231进行进一步分层管理。即在第一存储层2231中的多个元数据文件(有序字符串表),根据第一存储层2231的容量,对多个元数据文件进行合并,然后写入第二存储层。
在一可能的实现方式中,在根据第四元数据文件对第二元数据文件进行修改时,可先将第四元数据文件和第二元数据文件进行归并排序确定所需修改的修改节点,比如将相同的元数据的不同版本进行排序,举例来说,可以将元数据Y在第四元数据文件和第二元数据文件中对应的值进行排序,将元数据Y在第四元数据文件和第二元数据文件中对应的值进行排序,从而确定所需修改的修改节点,其中,修改节点可以是非日志结构树的部分叶子节点、中间节点、根节点等等,本申请不作具体限定;最后以事务写的方式,批量修改上述修改节点,从而完成对第二元数据文件的修改。可以理解的,存储系统200以事务写所需的少量开销换取数据量较大的存储层进行合并时带来的巨额开销,从而解决存储系统合并任务耗时久、资源消耗大的问题。
根据第四元数据文件对第二元数据文件进行修改时,具体实现中,在硬盘220是SCM的情况下,由于SCM是读写性能接近内存的存储介质,可以直接以原地修改写(write-in-place)的方式,对第二元数据文件进行修改,实现元数据的持久化存储。在硬盘220是SSD的情况下,由于SSD的固有特性导致其需要进行垃圾回收(garbage collection,GC),为了减少GC带来的写放大问题,SSD可以以写时重定向(redirect-on-write,ROW)方式将对元数据进行持久化处理。在硬盘220是HDD的情况下,由于HDD的随机写性能较差,因此HDD可以以ROW方式,将多个随机写的小写请求转化为顺序大写请求,实现元数据的持久化存储。
在一可能实现方式中,存储系统200在接收到元数据的查询请求时,可依次查询内存210、第一存储层2231以及第二存储层2232,直至读取到该元数据。若第一存储层2231包括多个存储子层,那么存储系统200在查询第一存储层2231时,按照合并顺序对第一存储层2231进行查询,比如图3所述的例子中,L0层向L1层合并,那么在读取元数据时,可先查询L0再查询L1,以此类推,这里不一一举例说明。可以理解的,相比于图1所示的存储系统100,由于存储系统200的存储层数较少,因此在元数据查询时,存储系统200的查询效率可以提升,提高用户的使用体验。
在一可能的实现方式中,存储系统200在接收到顺序写请求时,由于第二存储层的第二元数据文件是可修改写的元数据文件,可将顺序写请求中携带的元数据直接写入第二元数据文件中,从而减少存储层之间合并带来的资源消耗,提高元数据持久化的效率。
具体实现中,在接收到顺序写请求时,存储系统200还可先确定内存210和第一存储层2231中是否存在该顺序写请求所携带的元数据的历史版本,若不存在,再将该元数据直接写入第二元数据文件中,否则,将该元数据写入内存210中,从而避免查询元数据时,内存中的元数据版本不是最新的元数据版本,提高元数据读取的可靠性。
在一可能的实现方式中,存储系统200在接收到随机写请求时,可将随机写请求中携带的元数据Y写入内存210的内存表211中,这样,当内存表211中的数据量达到阈值时,内存表211切换为不可修改内存表212,元数据Y可随着不可修改内存表212,被写入第一存储层2231中,当第一存储层2231中的数据量达到上限时,元数据Y可随着第一存储层2231中的元数据文件的合并,被写入第二存储层2232,具体可对第二存储层2232中的第二元数据文件进行修改,比如修改元数据Y对应的部分叶子节点、根节点和中间节点等等,从而实现将元数据Y进行持久化存储的目的。
可以理解的,在混合负载场景下,即写入请求和查询请求并存的应用场景下,对于图1所示的基于日志结构树的存储系统100来说,为了提高基于日志结构树的存储系统处理查询请求的效率,需减少日志结构树的存储层数量,但是处理写入请求时,由于存储层数量较少,无法实现对多个写入请求的聚合,导致日志结构树写放大问题的出现,导致资源浪费;若日志结构树的存储层数量较多时,写放大问题虽然得以解决,但是处理查询请求时,需要查询大量的存储层以获取元数据,查询效率变低,这一不可调和的原因导致基于日志结构树的存储系统在混合负载场景下的性能较差。而本申请提供的存储系统200,在处理查询请求时由于存储层数较少,查询效率很高,且处理顺序写请求时,可将顺序写请求携带的元数据直接写入可修改的第二元数据文件中,消除存储层合并带来的系统开销,处理随机写请求时,可将随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,使得本申请提供的存储系统200在混合负载场景下,仍可保证较高的查询效率和存储效率。
综上可知,本申请提供的存储系统包括第一存储层和第二存储层,第一存储层基于日志结构树管理不可修改写的文件,第二存储层基于非日志结构树管理可修改写的文件。该结构的存储系统在处理元数据读取请求时,由于存储层数较少,可以提升元数据读取的效率,在处理元数据写入请求时,可将顺序写请求的元数据直接写入第二存储层,消除存储层合并带来的系统开销,也可将随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,从而解决基于日志结构树的存储系统在大容量场景下,占用存储空间且系统资源消耗越大的问题,确保了存储系统在混合负载场景下的查询效率和写入效率不会受到影响。
图4是本申请提供的一种存储系统中元数据管理方法的步骤流程示意图,其中,该管理方法可应用于图2所述的存储系统200中,如图4所示,该方法可由存储系统200中的一个或多个处理器执行,该方法可包括以下步骤:
S410:在存储系统200的第一存储层2231存储不可修改写的第一元数据文件。
具体实现中,第一元数据文件可以是内存210中的不可修改内存表212中的数据写入第一存储层2231后获得的。第一存储层2231和第一元数据文件的描述可以参考图2-图3实施例,这里不再重复赘述。第一存储层2231基于日志结构树管理第一元数据文件。
在一可能的实现方式中,第一存储层2231可包括多个元数据文件,例如,第一存储层2231还可存储不可修改写的第三元数据文件。其中,当第一元数据文件的大小达到上限时,第一元数据文件可与第三元数据文件进行合并,获得第四元数据文件,第四元数据文件可以被写入第二存储层2232。
S420:在存储系统200的第二存储层2232存储可修改写的第二元数据文件。
具体实现中,第二元数据文件可以是第一存储层2231中的数据写入第二存储层2232后获得的,也可以是存储系统200接收到顺序写请求后,将顺序写请求的元数据直接写入第二存储层2232存储的第二元数据文件。应理解,第二存储层2231和第二元数据文件的描述可以参考前述图2-图3实施例,这里不再重复赘述。第二存储层2232基于非日志结构树管理第二元数据文件。
具体实现中,上述非日志结构树可包括B树、B+树、字典序列树、跳表等等,本申请不作具体限定。
在一可能的实现方式中,在第一存储层存储有第三元数据文件时,第一元数据文件和第三元数据文件进行合并获得的第四元数据文件,可被写入至第二元数据文件,完成元数据的持久化存储。具体实现中,可将第四元数据文件和第二元数据文件进行归并排序,将第四元数据文件和第二元数据文件中的每个元数据进行排序,比如相同的元数据的不同版本按写入顺序进行排序,然后确定将第四元数据文件写入第二元数据文件时所需修改的修改节点和修改内容,然后以事务写的方式,对修改节点进行批量修改,从而将第四元数据文件写入第二元数据文件,其中,修改节点可以是非日志结构树的部分叶子节点、中间节点以及根节点等等。
具体实现中,在对第四元数据文件和第二元数据文件进行归并排序后,可根据排序结果对第四元数据文件和第二元数据文件进行合并,获得合并文件,删除旧版本的数据,保留新版本的数据,然后根据合并文件确定修改节点和修改内容。举例来说,第四元数据文件包括元数据Y1=A2,Y3=C,第二元数据文件包括元数据Y1=A1,Y2=B,那么对第四元数据文件和第二元数据文件进行归并排序后,可以获得Y1=A2,Y1=A1,Y2=B,Y3=C,由于Y1的最新版本为A2,那么第二元数据文件中的Y1=A1可以被删除,那么合并文件可包括Y1=A2,Y2=B,Y3=C。根据该合并文件,可以对第二元数据文件中Y1所在的叶子节点进行修改,对Y2所在的叶子节点不进行修改,并新增叶子节点记录元数据Y3,具体可以将上述多个修改操作添加至一个事务中,以事务为单位进行本次修改操作,从而完成对第二元数据文件的修改。可以理解的,通过修改第二元数据文件的方式对元数据进行持久化存储,并且以事务写所需的少量开销换取数据量较大的存储层进行合并时带来的巨额开销,可以解决存储系统合并任务耗时久、资源消耗大的问题。
在一可能的实现方式中,步骤S420之后,存储系统200还可接收查询请求,根据该查询请求,依次查询内存210、第一存储层2231以及第二存储层2232,直至查询到所需的元数据。可以理解的,相比于图1实施例中基于LSM树的存储系统100,图1所示的存储系统100在数据查询时,需要依次查询内存110、C0层、C1层、C2层、C3层等等,在大容量场景下,图1所示的存储系统的查询效率非常低,而本申请提供的方法,可依次查询内存210、第一存储层2231以及第二存储层2232获得所需的元数据,能够提高查询效率,降低查询时延。
本申请提供的存储系统200可基于上述步骤S410~步骤S420对所存储的数据进行管理,下面结合具体的实施例,对存储系统200处理写请求的方法流程进行说明。
图5是本申请提供的一种写请求处理方法的流程示意图,如图5所示,本申请提供的写操作流程包括以下步骤:
S510:接收写请求,其中,该写请求携带有元数据Y。
S520:确定写请求的写入类型,其中,写入类型包括顺序写和随机写,在写入类型是顺序写的情况下,执行步骤S530~步骤S550,在写入类型是随机写的情况下,执行步骤S560。
应理解,顺序写请求和随机写请求的特性不同,顺序写请求指的是顺序请求大量数据,以数据库中的请求为例,顺序写请求可以包括对数据库执行写重做(redo)/撤销(undo)日志操作请求、流媒体服务请求等等。随机写请求指的是随机请求少量的数据,比如万维网(world wide web,Web)服务请求,邮箱(mail)服务请求等。上述对于顺序写和随机写的举例用于说明,本申请不作具体限定。
因此,对于顺序写请求来说,由于请求的数量较大,当第二存储层以上的存储元都没有存储该顺序写请求的元数据的历史版本,可以直接将元数据写入第二存储层2232进行持久化处理,不仅消除存储层合并带来的系统开销,同时减少第二存储层2232中非日志结构树的写放大问题。对于随机写请求来说,可以先将随机写请求的元数据写入第一存储层2231,由第一存储层2231中的日志结构树对其进行管理,经过元数据文件的合并后,此时再通过对第二存储层2232中的第二元数据文件进行修改的方式,将元数据进行持久化存储,可以有效减少第二存储层2232中非日志结构树的写放大问题。
S530:查询内存和第一存储层2231是否存储有历史版本的元数据Y。其中,在内存210和第一存储层2231没有历史版本的元数据Y的情况下,执行步骤S550,在内存210和/或第一存储层2232包括历史版本的元数据Y的情况下,执行步骤S540。
S540:将元数据Y写入第一存储层2231。
可以理解的,在内存210和/或第一存储层2231包括历史版本的元数据Y的情况下,如果将元数据Y写入第二存储层2232,存储系统200接收到元数据Y的读请求时,若按照内存210、第一存储层2231和第二存储层2232的顺序依次查询,将会先查询到内存210或者第一存储层2231中的历史版本的元数据Y,但是第二存储层2232中的元数据Y才是最新版本的元数据。而在将顺序请求写入第二存储层2232之前先判定一下内存210和第一存储层2231中是否包含该元数据,可以避免该问题的出现,提高元数据读取的准确性。
S550:将元数据Y写入第二存储层2232。
S560:将元数据Y写入第一存储层2231。
参考前述图2~图4实施例可知,元数据Y写入第一存储层2231后,第一存储层2231可基于日志结构树对元数据Y进行管理,具体的,元数据Y可先被写入第一存储层2231中的第一元数据文件中,然后在第一元数据文件达到上限的情况下,存储系统将第一元数据文件和第三元数据文件进行合并,获得第四元数据文件,使得元数据Y被写入第四元数据文件中,将第四元数据文件写入第二存储层2232中的第二元数据文件中,从而实现元数据Y的持久化存储。应理解,步骤S560之后,存储系统200对元数据Y进行处理的步骤流程可参考参考前述图2~图4实施例,具体可参考第一存储层基于日志结构树对第一元数据文件进行管理的相关内容,这里不再重复赘述。
可以理解的,相比于图1所示的基于日志结构树的存储系统100,上述步骤S510~步骤S560使得存储系统200在混合负载场景下,也能够确保较高的查询效率和写入效率。
综上可知,本申请提供的存储系统中元数据管理方法,基于日志结构树管理第一存储层2231中的不可修改写的第一元数据文件,基于非日志结构树管理第二存储层2232中的可修改写的第二元数据文件,可以在处理读请求时,由于存储层数较少,提升元数据读取的效率,而且在处理写请求时,可将顺序写请求的元数据直接写入第二存储层2232,消除存储层合并带来的系统开销,也可将随机写请求的元数据写入第一存储层后,再根据第一存储层2231中的元数据,批量修改第二存储层2232中的元数据文件中的元数据,以事务开销的代价换取合并的开销,从而解决基于日志结构树的存储系统在大容量场景下,占用存储空间且系统资源消耗越大的问题,确保了存储系统在混合负载场景下的查询效率和写入效率不会受到影响。
上面详细阐述了本申请实施例的方法,为了便于更好地实施本申请实施例上述方案,相应地,下面还提供用于配合上述实施方案的相关设备。
图6是本申请提供的一种存储系统中的元数据管理装置,该元数据管理装置可以是前述内容中的处理器230,该元数据管理装置包括:第一存储单元610和第二存储单元620。
第一存储单元610用于在存储系统的第一存储层存储不可修改写的第一元数据文件,第二存储单元620,用于在存储系统的第二存储层存储可修改写的第二元数据文件,第一存储层基于日志结构树管理第一元数据文件,第二存储层基于非日志结构树管理第二元数据文件。
可选的,该元数据管理装置还包括合并单元630和第一写入单元640。第一存储层还存储不可修改写的第三元数据文件;第一存储层基于日志结构树管理第三元数据文件;合并单元630,用于合并第一元数据文件和第三元数据文件得到第四元数据文件;第一写入单元640,用于将第四元数据文件中存储的元数据写入到第二元数据文件。
可选的,该元数据管理装置还包括接收单元650以及第二写入单元660。接收单元650,用于接收顺序写请求;顺序写请求中携带元数据;第二写入单元660,用于将顺序写请求中携带的元数据写入第二元数据文件中。
可选地,第二存储层基于B树管理第二元数据文件。
可选地,第二存储层基于B+树管理第二元数据文件。
可选地,第一写入单元640具体用于:将第四元数据文件和第二元数据文件进行排序,确定第二元数据文件的修改节点;对修改节点进行修改,将第四元数据文件中存储的元数据写入到第二元数据文件。
可选地,第一写入单元640具体用于:以事务写的方式,对修改节点进行批量修改。
本申请实施例的元数据管理装置可对应于执行本申请图2至图5实施例中描述的方法,并且处理器230中的各个模块和/或功能分别为了实现图2至图5中的各个方法的相应流程,为了简洁,在此不再赘述。
综上可知,本申请提供的元数据管理装置,在存储系统的第一存储层基于日志结构树管理不可修改写的第一元数据文件,在存储系统的第二存储层基于非日志结构树管理可修改写的第二元数据文件。在处理元数据读取请求时,由于存储层数较少,可以提升元数据读取的效率,在处理元数据写入请求时,可将顺序写请求的元数据直接写入第二存储层,消除存储层合并带来的系统开销,也可将随机写请求的元数据写入第一存储层后,再根据第一存储层中的数据,批量修改第二存储层,以事务开销的代价换取合并的开销,从而解决基于日志结构树的存储系统在大容量场景下,占用存储空间且系统资源消耗越大的问题。
图7是本申请提供的一种存储阵列700的硬件结构示意图,如图7所示,存储阵列700可以是前述内容的存储系统200。其中,该存储阵列700包括存储控制器710和至少一个存储器720,其中,存储控制器710和至少一个存储器720通过总线730或网络相互连接。总线730可以是外设部件互连标准(Peripheral Component Interconnect,PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,EISA)总线等。总线730可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储控制器710可以包含图2实施例中的处理器230和元数据管理装置600,存储控制器710包括一个或者多个处理器,其中处理器包括CPU、微处理器、微控制器、主处理器、控制器以及ASIC等等。
至少一个存储器720可以是图2实施例中的硬盘220和内存210,具体可以是非易失性存储器,例如HDD、SSD、SCM等等,还可以包括上述种类的存储器的组合。例如,存储阵列700可以是由多个HDD或者多个SDD组成,或者,存储阵列700可以是由多个HDD或者多个SCM组成。其中,至少一个存储器720在存储控制器710的控制下按不同的方式组合起来形成存储器组,从而提供比单个存储器更高的存储性能。
需要说明的,图7仅仅是本申请实施例的一种可能的实现方式,实际应用中,存储阵列700还可以包括更多或更少的部件,这里不作限制。关于本申请实施例中未示出或未描述的内容,可参见前述图1-图6实施例中的相关阐述,这里不再赘述。
存储系统还可以是分布式存储系统,或者具有实现上述方案的单台服务器等,本发明对存储系统的具体形态不作限定。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其在处理器上运行时,图4和图5所示的方法流程得以实现。
本申请实施例还提供一种计算机程序产品,当计算机程序产品在处理器上运行时,图4和图5所示的方法流程得以实现。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括至少一个计算机指令。在计算机上加载或执行计算机程序指令时,全部或部分地产生按照本发明实施例的流程或功能。计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DigitalSubscriber Line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含至少一个可用介质集合的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,高密度数字视频光盘(Digital VideoDisc,DVD)、或者半导体介质。半导体介质可以是SSD。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (17)
1.一种存储系统中元数据管理方法,其特征在于,所述方法由所述存储系统中的一个或多个处理器执行,包括:
在所述存储系统的第一存储层存储不可修改写的第一元数据文件;
在所述第二存储层存储可修改写的第二元数据文件;其中,所述第一存储层基于日志结构树管理所述第一元数据文件;所述第二存储层基于非日志结构树管理所述第二元数据文件。
2.根据权利要求1所述的方法,其特征在于,
所述第一存储层还存储不可修改写的第三元数据文件;所述第一存储层基于所述日志结构树管理所述第三元数据文件;所述方法还包括:
合并所述第一元数据文件和第三元数据文件得到第四元数据文件;
将所述第四元数据文件中存储的元数据写入到所述第二元数据文件。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
接收顺序写请求;所述顺序写请求中携带元数据;
将所述顺序写请求中携带的元数据写入所述第二元数据文件中。
4.根据权利要求1-3任一所述的方法,其特征在于,
所述第二存储层基于B树管理所述第二元数据文件。
5.根据权利要求1-3任一所述的方法,其特征在于,
所述第二存储层基于B+树管理所述第二元数据文件。
6.根据权利要求2所述的方法,其特征在于,将所述第四元数据文件中存储的元数据写入到所述第二元数据文件包括:
将所述第四元数据文件和所述第二元数据文件进行排序,确定所述第二元数据文件的修改节点;
对所述修改节点进行修改,将所述第四元数据文件中存储的元数据写入到所述第二元数据文件。
7.根据权利要求6所述的方法,其特征在于,所述对所述修改节点进行修改包括:以事务写的方式,对所述修改节点进行批量修改。
8.一种存储系统,其特征在于,所述存储系统包含一个或多个处理器以及与所述一个或多个处理器通信的存储设备;所述存储设备用于提供第一存储层和第二存储层;所述一个或多个处理器用于:
在所述存储系统的第一存储层存储不可修改写的第一元数据文件;
在所述第二存储层存储可修改写的第二元数据文件;其中,所述第一存储层基于日志结构树管理所述第一元数据文件;所述第二存储层基于非日志结构树管理所述第二元数据文件。
9.根据权利要求8所述的存储系统,其特征在于,所述第一存储层还存储不可修改写的第三元数据文件;所述第一存储层基于日志结构树管理所述第三元数据文件;
所述一个或多个处理器还用于:
合并所述第一元数据文件和第三元数据文件得到第四元数据文件;
将所述第四元数据文件中存储的元数据写入到所述第二元数据文件。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包含计算机程序指令,存储系统中一个或多个处理器执行所述程序指令使得所述存储系统实现如权利要求1至7任一权利要求所述的方法。
11.一种存储系统中的元数据管理装置,其特征在于,所述元数据管理装置包括:
第一存储单元,用于在所述存储系统的第一存储层存储不可修改写的第一元数据文件;
第二存储单元,用于在所述存储系统的第二存储层存储可修改写的第二元数据文件;其中,所述第一存储层基于日志结构树管理所述第一元数据文件;所述第二存储层基于非日志结构树管理所述第二元数据文件。
12.根据权利要求11所述的元数据管理装置,其特征在于,所述第一存储层还存储不可修改写的第三元数据文件;所述第一存储层基于所述日志结构树管理所述第三元数据文件;所述元数据管理装置还包括:
合并单元,用于合并所述第一元数据文件和所述第三元数据文件得到第四元数据文件;
第一写入单元,用于将所述第四元数据文件中存储的元数据写入到所述第二元数据文件。
13.根据权利要求11或12所述的元数据管理装置,其特征在于,所述元数据管理装置还包括:
接收单元,用于接收顺序写请求;所述顺序写请求中携带元数据;
第二写入单元,用于将所述顺序写请求中携带的元数据写入所述第二元数据文件中。
14.根据权利要求11-13任一所述的元数据管理装置,其特征在于,
所述第二存储层基于B树管理所述第二元数据文件。
15.根据权利要求11-13任一所述的元数据管理装置,其特征在于,
所述第二存储层基于B+树管理所述第二元数据文件。
16.根据权利要求12所述的元数据管理装置,其特征在于,所述第一写入单元具体用于:
将所述第四元数据文件和所述第二元数据文件进行排序,确定所述第二元数据文件的修改节点;
对所述修改节点进行修改,将所述第四元数据文件中存储的元数据写入到所述第二元数据文件。
17.根据权利要求16所述的元数据管理装置,其特征在于,所述第一写入单元具体用于:以事务写的方式,对所述修改节点进行批量修改。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/100904 WO2022121274A1 (zh) | 2020-12-10 | 2021-06-18 | 一种存储系统中元数据管理方法、装置及存储系统 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011454997 | 2020-12-10 | ||
CN202011454997X | 2020-12-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114625713A true CN114625713A (zh) | 2022-06-14 |
Family
ID=81896889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110245752.4A Pending CN114625713A (zh) | 2020-12-10 | 2021-03-05 | 一种存储系统中元数据管理方法、装置及存储系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114625713A (zh) |
WO (1) | WO2022121274A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024174715A1 (zh) * | 2023-02-21 | 2024-08-29 | 北京奥星贝斯科技有限公司 | 一种数据存储方法、装置及电子设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12019548B2 (en) * | 2022-04-18 | 2024-06-25 | Samsung Electronics Co., Ltd. | Systems and methods for a cross-layer key-value store architecture with a computational storage device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722449B (zh) * | 2012-05-24 | 2015-01-21 | 中国科学院计算技术研究所 | 基于SSD的Key-Value型本地存储方法及系统 |
US9959207B2 (en) * | 2015-06-25 | 2018-05-01 | Vmware, Inc. | Log-structured B-tree for handling random writes |
CN110851434B (zh) * | 2018-07-27 | 2023-07-18 | 阿里巴巴集团控股有限公司 | 一种数据存储方法、装置及设备 |
CN109933570B (zh) * | 2019-03-15 | 2020-02-07 | 中山大学 | 一种元数据管理方法、系统及介质 |
-
2021
- 2021-03-05 CN CN202110245752.4A patent/CN114625713A/zh active Pending
- 2021-06-18 WO PCT/CN2021/100904 patent/WO2022121274A1/zh active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024174715A1 (zh) * | 2023-02-21 | 2024-08-29 | 北京奥星贝斯科技有限公司 | 一种数据存储方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2022121274A1 (zh) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220350819A1 (en) | System and method for improved performance in a multidimensional database environment | |
CN103765393B (zh) | 存储系统 | |
US9311252B2 (en) | Hierarchical storage for LSM-based NoSQL stores | |
CN110799960A (zh) | 数据库租户迁移的系统和方法 | |
CN110825748A (zh) | 利用差异化索引机制的高性能和易扩展的键值存储方法 | |
US9996557B2 (en) | Database storage system based on optical disk and method using the system | |
JP6598996B2 (ja) | データ準備のためのシグニチャベースのキャッシュ最適化 | |
CN109213432B (zh) | 利用日志结构合并树将数据写入的存储设备及其方法 | |
US20220027349A1 (en) | Efficient indexed data structures for persistent memory | |
US10909091B1 (en) | On-demand data schema modifications | |
CN105912687A (zh) | 海量分布式数据库存储单元 | |
CN113626431A (zh) | 一种基于lsm树的延迟垃圾回收的键值分离存储方法及系统 | |
WO2022121274A1 (zh) | 一种存储系统中元数据管理方法、装置及存储系统 | |
JP6598997B2 (ja) | データ準備のためのキャッシュ最適化 | |
US20180011897A1 (en) | Data processing method having structure of cache index specified to transaction in mobile environment dbms | |
WO2024187818A1 (zh) | 一种数据迁移方法、系统、设备及非易失性可读存储介质 | |
CN113722320A (zh) | 一种基于并行的图数据索引的持久化方法 | |
CN113918089A (zh) | 键值存储设备和排序键值的方法 | |
US20240220470A1 (en) | Data storage device and storage control method based on log-structured merge tree | |
US12118245B2 (en) | File system improvements for zoned storage device operations | |
US20230409536A1 (en) | File system metadata layout for append-only storage | |
CN111752941A (zh) | 一种数据存储、访问方法、装置、服务器及存储介质 | |
CN114896250A (zh) | 一种键值分离的键值存储引擎索引优化方法及装置 | |
CN115437836A (zh) | 一种元数据处理方法及相关设备 | |
US11803469B2 (en) | Storing data in a log-structured format in a two-tier storage system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |