CN111309262A - 一种分布式存储缓存读取和写入方法 - Google Patents

一种分布式存储缓存读取和写入方法 Download PDF

Info

Publication number
CN111309262A
CN111309262A CN202010094507.3A CN202010094507A CN111309262A CN 111309262 A CN111309262 A CN 111309262A CN 202010094507 A CN202010094507 A CN 202010094507A CN 111309262 A CN111309262 A CN 111309262A
Authority
CN
China
Prior art keywords
data object
cache
storage
node
storage node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010094507.3A
Other languages
English (en)
Other versions
CN111309262B (zh
Inventor
熊江
于超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orca Data Technology Xian Co Ltd
Original Assignee
Orca Data Technology Xian Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orca Data Technology Xian Co Ltd filed Critical Orca Data Technology Xian Co Ltd
Priority to CN202010094507.3A priority Critical patent/CN111309262B/zh
Publication of CN111309262A publication Critical patent/CN111309262A/zh
Application granted granted Critical
Publication of CN111309262B publication Critical patent/CN111309262B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0626Reducing size or complexity of storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明公开了一种分布式存储缓存读取和写入方法,接收待写入的数据对象,为每个数据对象分配缓存空间,并将数据对象写入对应的缓存空间中;根据数据对象生成对应的数据对象指纹,通过分布式哈希表为数据对象指纹分配存储节点;当存储节点包含当前存储节点时,将数据对象写入当前存储节点的磁盘中;当存储节点不包含当前存储节点时,为数据对象指纹设置本地缓存标识,并将数据对象发送至远程存储节点;通过使用本发明的分布式缓存方法,读写缓存统一入口,软件复杂度低,降低分布式存储系统的访问时间,提升系统性能。

Description

一种分布式存储缓存读取和写入方法
【技术领域】
本发明属于计算机存储技术领域,尤其涉及一种分布式存储缓存读取和写入方法。
【背景技术】
存储系统正在向着大规模、分布式、虚拟化方向发展,分布式存储系统应运而生,在分布式存储系统中都引入了高速缓存系统,高速缓存被定义为系统中为更快地处理将来的请求而保留的数据的存储容量。缓存中存储的数据由于经常被访问而存储在那里,或者是存储在另一个位置的数据的重复副本。缓存本质上使将来的访问更快。
当前分布式存储系统的缓存系统,大多是节点内缓存,业务数据通DHT或者其它离散算法发到节点,节点收到IO请求后进行相应流程处理。这样就给系统带来了以下缺陷:
1)缓存系统是节点内缓存,需要在存储节点外增加分布式模块,进行副本或者EC的处理流程。
2)缓存系统不会缓存其它节点的数据,针对读热点数据需要跨节点访问,读性能受到极大影响。
3)缓存系统的读缓存和写缓存是独立的,增加了软件复杂度;读数据时需要先读写缓存,不成功在再读读缓存,不成功再读SSD POOL,读请进路径复杂,步骤多影响读性能。
4)使用SSD WAL cache作持久化保证,整个写性能受限于SSD的性能,系统的写性能受到极大影响。
5)通用分布式存储缓存系统针对HDD和SSD等存储介质各不相同,不能统一使用一套方案。
由于上述缺陷的存在,导致了现有的分布式存储系统中数据访问时间长,系统性能低。
【发明内容】
本发明的目的是提供一种分布式存储缓存读取和写入方法,以降低分布式存储系统的访问时间,提升系统性能。
本发明采用以下技术方案:一种分布式存储缓存写入方法,包括:
接收待写入的数据对象,为每个数据对象分配缓存空间,并将数据对象写入对应的缓存空间中;
根据数据对象生成对应的数据对象指纹,通过分布式哈希表为数据对象指纹分配存储节点;
当存储节点包含当前存储节点时,将数据对象写入当前存储节点的磁盘中;
当存储节点不包含当前存储节点时,为数据对象指纹设置本地缓存标识,并将数据对象发送至远程存储节点。
进一步地,当远程存储节点接收到数据对象后,还包括:
为每个数据对象分配缓存空间,将数据对象写入对应的缓存空间中,并将数据对象写入当前存储节点的磁盘中。
进一步地,分布式哈希表的生成方法为:
为每个存储节点生成节点哈希值,并由小到大对节点哈希值进行排序,生成分布式哈希表。
进一步地,通过分布式哈希表为数据对象指纹分配存储节点包括:
将数据对象指纹依次与分布式哈希表中的节点哈希值进行对比,直至找到第一个节点哈希值,且该节点哈希值大于数据对象指纹的值,将该节点哈希值对应的存储节点作为数据对象指纹对应的数据对象的存储节点;
判断数据对象的存储节点数量是否达到预定副本值,若是,则完成分配存储节点;否则,重复为数据对象指纹分配存储节点,直至数据对象的存储节点数量达到预定副本值,完成分配存储节点。
本发明的另一种技术方案:一种分布式存储缓存读取方法,包括:
根据待读取数据对象对应的逻辑块号查询数据对象对应的数据对象指纹;
在缓存空间中查询数据对象指纹对应的数据对象:
当缓存空间中存在数据对象时,返回数据对象指纹对应的数据对象;
当缓存空间中不存在数据对象时,向当前存储节点查询数据对象指纹对应的数据对象,若当前存储节点存在该数据对象,则返回数据对象指纹对应的数据对象;否则通过分布式哈希表为数据对象指纹查询远程存储节点,并通过远程存储节点返回数据对象指纹对应的数据对象。
本发明的有益效果是:通过使用本发明的分布式缓存方法,读写缓存统一入口,软件复杂度低;写缓存使用NVDIMM保存数据,不存在持久化性能瓶颈;读缓存使用普通内存,成本可控;读缓存保存跨节点数据,减少读流程的跨节点访问。缓存系统结合内置分布式模块完成副本或者EC处理,无需额外分布式模块。针对HDD和SSD等存储介质使用统一方案,维护成本低。
【附图说明】
图1为现有技术中通用HDD存储写缓存处理流程示意图;
图2为现有技术中通用HDD存储读缓存处理流程示意图;
图3为现有技术中通用SSD存储写缓存处理流程示意图;
图4为现有技术中通用SSD存储读缓存处理流程示意图;
图5为本发明实施例中软件模块架构图;
图6为本发明实施例中分布式存储缓存写流程示意图;
图7为本发明实施例中分布式存储缓存读流程示意图;
图8为本发明实施例中分布式哈希表示意图。
【具体实施方式】
下面结合附图和具体实施方式对本发明进行详细说明。
现有技术中通常的HDD缓存处理流程和SDD缓存处理流程概述如下:
通用HDD存储写缓存处理流程
如图1所示,是通用HDD存储写缓存处理流程,存储节点收到业务的写IO操作(图中Write IO)时,会将Write IO在MemoryWrite Cache内存中保存一份,同时同步以日志的方式记录到SSD WAL Cache中并返回成功完成本次写操作,这个流程通常称为Write IO流程。
通常SSD Disk Cache分为两个部分:SSD Write Cache和SSD Read Cache。MemoryWrite Cache中的数据会进行排序重整并等待满分条以副本或EC的方式直接写入到SSD Write Cache中并返回;对于大块IO则直接由MemoryWrite Cache直通写到HDD中,而不驻留在SSD Write Cache里;当SSD Write Cache中的保存数据水位达到刷盘阀值时,则由SSD Write Cache往HDD中搬迁。
随着MemoryWrite Cache中的数据逐步刷盘到SSD Write Cache时,SSD WALCache中的数据将逐步淘汰掉,通常会进行异步的垃圾回收。
通用HDD存储读缓存处理流程:
如图2所示,是通用HDD存储读缓存处理流程,存储节点在收到业务的读IO操作时,会进行如下步骤处理:
步骤1,从内存“Memory Write Cache”中查找是否存在所需数据,存在则直接返回,否则执行步骤2;
步骤2,从内存“Memory Read Cache”中查找是否存在所需数据,存在则直接返回,否则执行步骤3;
步骤3,从“SSD Write Cache”中查找是否存在所需数据,存在则直接返回,否则执行步骤4;
步骤4,从“SSD Read Cache”中查找是否存在所需数据,存在则直接返回,否则执行步骤5;
步骤5,从硬盘中查找到所需数据并返回,同时增加该数据的热点访问因子,如果热点访问因子达到阀值,则会被缓存在“SSD Read Cache”中。
通用SSD存储写缓存处理流程:
如图3所示,是通用SSD存储写缓存处理流程,存储节点收到业务的写IO操作(图中Write IO)时,会将Write IO在MemoryWrite Cache内存中保存一份,同时同步以日志的方式记录到SSD WAL Cache中并返回成功完成本次写操作,这个流程通常称为Write IO流程。
Memory Write Cache中的数据会进行排序重整并等待满分条以副本或EC的方式直接写入到SSD POOL中并返回;
当MemoryWrite Cache中的保存数据水位达到刷盘阀值时,则由Memory WriteCache往SSD POOL中搬迁。随着MemoryWrite Cache中的数据逐步刷盘到SSD POOL时,SSDWAL Cache中的数据将逐步淘汰掉,我们通常会进行异步的垃圾回收。
通用SSD存储读缓存处理流程:
如图4所示,是通用SSD存储读缓存处理流程,存储节点在收到业务的读IO操作时,会进行如下步骤处理:
步骤1,从内存“Memory Write Cache”中查找是否存在所需数据,存在则直接返回,否则执行步骤2;
步骤2,从内存“Memory Read Cache”中查找是否存在所需数据,存在则直接返回,否则执行步骤3;
步骤3,从SSD POOL中查找到所需数据并返回,同时增加该数据的热点访问因子,如果热点访问因子达到阀值,则会被缓存在“Memory Read Cache”中。
由上述可知,现有的缓存方法具有以下缺陷:
1)缓存系统是节点内缓存,需要在存储节点外增加分布式模块,进行副本或者EC的处理流程。2)缓存系统不会缓存其它节点的数据,针对读热点数据需要跨节点访问,读性能受到极大影响。3)缓存系统的读缓存和写缓存是独立的,增加了软件复杂度;读数据时需要先读写缓存,不成功在再读读缓存,不成功再读SSD POOL,读请求处理路径复杂,步骤多影响读性能。4)使用SSD WAL cache作持久化保证,整个写性能受限于SSD的性能,系统的写性能受到极大影响。5)通用分布式存储缓存系统针对HDD和SSD等存储介质各不相同,不能统一使用一套方案。
因此,本发明实施例提供了一种分布式存储缓存写入方法,包括:
接收待写入的数据对象,为每个数据对象分配缓存空间,并将数据对象写入对应的缓存空间中;根据数据对象生成对应的数据对象指纹,通过分布式哈希表为数据对象指纹分配存储节点;当存储节点包含当前存储节点时,将数据对象写入当前存储节点的磁盘中;当存储节点不包含当前存储节点时,为数据对象指纹设置本地缓存标识,并将数据对象发送至远程存储节点。
通过使用本发明的分布式缓存方法,读写缓存统一入口,软件复杂度低;写缓存使用NVDIMM保存数据,不存在持久化性能瓶颈;读缓存使用普通内存,成本可控;读缓存保存跨节点数据,减少热点读请求的跨节点访问。缓存系统结合内置分布式模块完成副本或者EC处理,无需额外分布式模块。针对HDD和SSD等存储介质使用统一方案,维护成本低。
具体的,当远程存储节点接收到数据对象后,还包括:
为每个数据对象分配缓存空间,将数据对象写入对应的缓存空间中;并将数据对象写入当前存储节点的磁盘中。
本发明给出了的一种分布式存储缓存写入方法的具体实施例,该实施例是基于如图5所示的软件模块架构图,该图中灰色部分表示缓存系统。本实施例中,单个存储节点大体分为三个大模块,VLUN处理LUN导出等控制流程以及IO请求。CACHE模块响应IO请求,处理多副本或者EC流程,负责对接后端Object Store模块;Object Store实现处理单机版的对象存储。
CACHE模块大体分为四个模块,Cache Line模块负责读写缓存统一入口管理;NVDIMM模块负责写缓存空间分配;MEMORY模块负责读缓存空间分配;DHT负责维护集群拓扑,负责多副本或者EC处理。
如图6所示,为本实施例的写流程示意图,图中包含了:1.存储节点1,2,3;2.每个节点中,分别运行了:a.VLUN模块,b.CACHE模块,c.Object Store模块;3.用户数据对象1和用户数据对象2;4.逻辑卷LUN1。
具体的,系统的写流程按如下流程进行:
系统向用户展现逻辑卷,即逻辑空间LUN1;
用户向逻辑空间LUN1发送写请求;
每当有新的用户数据到达系统,系统先将用户数据拆分成固定大小(例如4KB)的数据对象,即数据对象1和数据对象2;
数据对象发给CACHE模块,CACHE模块处理主要步骤如下:
1)首先分配一个匿名的缓存对象控制结构对象;
2)从NVDIMM中申请对象存储空间,将数据对象写入对象存储空间中;
3)把对象存储空间地址记录到控制结构对象中;
4)计算数据对象指纹,查询DHT放置策略,如果不包含本节点,则打上local cache标志,保证local cache对象刷到后端对象存储中,只保存在缓存中,以便加速后续的读请求。
5)将控制对象插入缓存统一入口中。
6)根据DHT放置策略,将数据副本写入远端CACHE模块,远端处理方式重复上面的步骤1)到步骤5),只是不处理放置策略相关内容。
系统返回写成功。
当写缓存空间达到一定水位后,异步刷到后端对象存储系统中。
作为一种具体的实现方式,分布式哈希表的生成方法为:
为每个存储节点生成节点哈希值,并由小到大对节点哈希值进行排序,生成分布式哈希表。通过分布式哈希表为数据对象指纹分配存储节点包括:将数据对象指纹依次与分布式哈希表中的节点哈希值进行对比,直至找到第一个节点哈希值,且该节点哈希值大于数据对象指纹的值,将该节点哈希值对应的存储节点作为数据对象指纹对应的数据对象的存储节点。
判断数据对象的存储节点数量是否达到预定副本值,若是,则完成分配存储节点;否则,重复为数据对象指纹分配存储节点,直至数据对象的存储节点数量达到预定副本值,完成分配存储节点。
更为具体的,本实施例还提供了具体的实现方式,如图8所示,为分布式哈希表的结构示意图。该分布式哈希表的工作流程如下:
1.以存储节点的某一种属性或某几种属性的综合为节点设置不同的权重,根据权重在哈希环上为存储节点分配不同数目的环点。因此,权重越高,分配的哈希环点越多。比如:我们单纯依据磁盘的容量。每一Megabytes(兆字节)数据为一点权重的话。一个容量为100GB的存储节点权重就是102400,分配102400个环点;一个容量为50GB的存储节点权重就是51200,分配51200个环点。
2.为每个存储节点每个环点命名,并计算哈希值。例如:节点名为sda,那么它的环点的命名依次就是sda_0,sda1,…,sda_102399。以此计算出各个环点的哈希值。
3.组合各个存储节点环点算出的哈希值成一个哈希数组,按照哈希的数值大小排列。由于哈希本身是随机,且均匀的。那么按照哈希数值大小排列后,各个存储节点的哈希环点就被均匀的分布在了DHT环上。
4.根据配置的副本数或者EC信息和存储节点拓扑为每一个存储节点环点分配几个存储节点构成环点放置策略组。要注意的是,某个存储节点(A)生成的DHT环点及其放置策略组涉及的存储节点可能不包含自己(A),只包含其它节点(例如两副本情况BC)。
5.每当有新的数据要写入,对数据块进行哈希计算,得到数据的指纹。数据指纹在从上述哈希环起始位置开始进行查询,直到找到第一个比数据指纹值更大的存储节点环点。那么,该环点所属的存储节点,就是新的数据块应该被保存的存储节点。只要数据块的内容不变,它的指纹就不会变。因此,写入算出的环点,在读请求的时候会得到相同的环点。从而使得读请求会去数据所在的存储节点上去寻找数据。
6.当有存储节点增减的时候,根据新的存储节点拓扑结果,哈希环点将被重新计算并排序。不变环点的相对位置不会发生变化;变化的只是新加入或被删除存储节点对应的那些环点,以及与之相关的数据。因此,只有发生变化的存储节点上的数据需要移出或移入,并且移动后的数据还是均匀成比例分布在新的存储节点组合上。整个系统还是保持稳定平衡的状态。
另外,本发明的另一个实施例给出了一种分布式存储缓存读取方法,包括:
根据待读取数据对象对应的逻辑块号查询数据对象对应的数据对象指纹;在缓存空间中查询数据对象指纹对应的数据对象:当缓存空间中存在数据对象时,返回数据对象指纹对应的数据对象;当缓存空间中不存在数据对象时,向当前存储节点查询数据对象指纹对应的数据对象,若当前存储节点存在该数据对象,则返回数据对象指纹对应的数据对象;否则通过分布式哈希表为数据对象指纹查询远程存储节点,并通过远程存储节点返回数据对象指纹对应的数据对象。
作为更为具体的实施例,如图7所示,图中包含了:1.存储节点1,2,3;2.每个节点中,分别运行了:a.VLUN模块,b.CACHE模块,c.Object Store模块;3.逻辑卷LUN1。
该实施例中系统的读流程按如下流程进行:
节点1向用户展现逻辑卷,即逻辑空间LUN1;
用户向逻辑空间LUN1发送读请求,请求中带有所要读取的逻辑块号;
逻辑空间模块查询元数据,找到对应的数据对象的指纹1;
逻辑空间将指纹1发给CACHE模块请求读取数据,CACHE模块处理主要步骤如下:
1)从缓存统一入口查询缓存,读到数据则返回;
2)否则,首先分配一个匿名的缓存对象控制结构对象;
3)从MEMORY模块中申请对象存储空间;
4)把对象存储空间地址记录到控制结构对象中;
5)向后端Object Store模块读取数据,如果读不到则进入第8)步,读到数据进行下一步;
6)把数据写到之前申请的对象存储空间中;
7)将控制对象插入缓存统一入口中,将缓存数据对象返回给用户;
8)根据指纹1查询DHT模块获取副本放置策略组,
9)向放置策略组的第一个节点请求数据,读到数据则进行6)7)步;
10)如果读不到数据,则向放置策略组的其它所有节点并发请求数据,读到数据则进行6)7)步;
11)所有节点都读不到数据,则向用户返回失败。
在上述实施例中,对写入和读取实施例的描述都各有侧重,由于数据写入和数据读取是两个相似的操作流程,所以,在数据读取实施例中没有详述或记载的部分,可以参见数据写入实施例的相关描述。
本发明的写入和读取方法,可以用于分布式存储中的缓存管理,不是节点内缓存系统,而是跨节点的分布式缓存系统;读缓存和写缓存统一入口,读写流程更加简单化;与磁盘无关的缓存系统,适用于HDD和SSD等分布式存储系统。
通过本发明的分布式缓存技术,使得读写缓存统一入口,软件复杂度低;写缓存使用NVDIMM保存数据,不存在持久化性能瓶颈;读缓存使用普通内存,成本可控;读缓存保存跨节点数据,减少读程的跨节点访问。缓存系统结合内置分布式模块完成副本或者EC处理,无需额外分布式模块。针对HDD和SSD等存储介质使用统一方案,维护成本低。

Claims (5)

1.一种分布式存储缓存写入方法,其特征在于,包括:
接收待写入的数据对象,为每个所述数据对象分配缓存空间,并将所述数据对象写入对应的所述缓存空间中;
根据所述数据对象生成对应的数据对象指纹,通过分布式哈希表为所述数据对象指纹分配存储节点;
当所述存储节点包含当前存储节点时,将所述数据对象写入当前存储节点的磁盘中;
当所述存储节点不包含当前存储节点时,为所述数据对象指纹设置本地缓存标识,并将数据对象发送至远程存储节点。
2.如权利要求1所述的一种分布式存储缓存写入方法,其特征在于,当所述远程存储节点接收到所述数据对象后,还包括:
为每个所述数据对象分配缓存空间,将所述数据对象写入对应的所述缓存空间中,并将数据对象写入当前存储节点的磁盘中。
3.如权利要求2所述的一种分布式存储缓存写入方法,其特征在于,所述分布式哈希表的生成方法为:
为每个存储节点生成节点哈希值,并由小到大对所述节点哈希值进行排序,生成所述分布式哈希表。
4.如权利要求1所述的一种分布式存储缓存写入方法,其特征在于,通过分布式哈希表为所述数据对象指纹分配存储节点包括:
将所述数据对象指纹依次与所述分布式哈希表中的节点哈希值进行对比,直至找到第一个节点哈希值,且该节点哈希值大于所述数据对象指纹的值,将该节点哈希值对应的存储节点作为所述数据对象指纹对应的数据对象的存储节点;
判断所述数据对象的存储节点数量是否达到预定副本值,若是,则完成分配存储节点;否则,重复为所述数据对象指纹分配存储节点,直至所述数据对象的存储节点数量达到预定副本值,完成分配存储节点。
5.一种分布式存储缓存读取方法,其特征在于,包括:
根据待读取数据对象对应的逻辑块号查询所述数据对象对应的数据对象指纹;
在所述缓存空间中查询所述数据对象指纹对应的数据对象:
当所述缓存空间中存在所述数据对象时,返回所述数据对象指纹对应的数据对象;
当所述缓存空间中不存在所述数据对象时,向当前存储节点查询所述数据对象指纹对应的数据对象,若当前存储节点存在该数据对象,则返回所述数据对象指纹对应的数据对象;否则通过分布式哈希表为所述数据对象指纹查询远程存储节点,并通过所述远程存储节点返回所述数据对象指纹对应的数据对象。
CN202010094507.3A 2020-02-16 2020-02-16 一种分布式存储缓存读取和写入方法 Active CN111309262B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010094507.3A CN111309262B (zh) 2020-02-16 2020-02-16 一种分布式存储缓存读取和写入方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010094507.3A CN111309262B (zh) 2020-02-16 2020-02-16 一种分布式存储缓存读取和写入方法

Publications (2)

Publication Number Publication Date
CN111309262A true CN111309262A (zh) 2020-06-19
CN111309262B CN111309262B (zh) 2021-01-29

Family

ID=71145044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010094507.3A Active CN111309262B (zh) 2020-02-16 2020-02-16 一种分布式存储缓存读取和写入方法

Country Status (1)

Country Link
CN (1) CN111309262B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113010103A (zh) * 2021-01-15 2021-06-22 腾讯科技(深圳)有限公司 数据存储方法、装置、相关设备及存储介质
US20220019697A1 (en) * 2020-07-16 2022-01-20 Humanscape Inc. System for embedding digital verification fingerprint and method thereof
CN115712583A (zh) * 2023-01-09 2023-02-24 之江实验室 一种提升分布式缓存跨节点访问性能的方法及装置、介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101335765A (zh) * 2008-07-25 2008-12-31 华中科技大学 基于移动缓存的存储服务中间件
CN103929500A (zh) * 2014-05-06 2014-07-16 刘跃 一种分布式存储系统的数据分片方法
CN104935654A (zh) * 2015-06-10 2015-09-23 华为技术有限公司 一种服务器集群系统中的缓存方法、写入点客户端和读客户端
CN105872040A (zh) * 2016-03-30 2016-08-17 华中科技大学 一种利用网关节点缓存优化分布式块存储写性能的方法
US20180013707A1 (en) * 2015-06-24 2018-01-11 Private Giant Method and system for sender-controlled messaging and content sharing
CN108959660A (zh) * 2018-08-15 2018-12-07 东北大学 一种基于hdfs分布式文件系统的存储方法及使用方法
US20190220606A1 (en) * 2017-05-22 2019-07-18 Boe Technology Group Co., Ltd. Data processing method, data processing device, and computer readable storage medium
CN110147331A (zh) * 2019-05-16 2019-08-20 重庆大学 缓存数据处理方法、系统及可读存储介质
CN110196759A (zh) * 2018-06-20 2019-09-03 腾讯科技(深圳)有限公司 分布式事务处理方法和装置、存储介质及电子装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101335765A (zh) * 2008-07-25 2008-12-31 华中科技大学 基于移动缓存的存储服务中间件
CN103929500A (zh) * 2014-05-06 2014-07-16 刘跃 一种分布式存储系统的数据分片方法
CN104935654A (zh) * 2015-06-10 2015-09-23 华为技术有限公司 一种服务器集群系统中的缓存方法、写入点客户端和读客户端
US20180013707A1 (en) * 2015-06-24 2018-01-11 Private Giant Method and system for sender-controlled messaging and content sharing
CN105872040A (zh) * 2016-03-30 2016-08-17 华中科技大学 一种利用网关节点缓存优化分布式块存储写性能的方法
US20190220606A1 (en) * 2017-05-22 2019-07-18 Boe Technology Group Co., Ltd. Data processing method, data processing device, and computer readable storage medium
CN110196759A (zh) * 2018-06-20 2019-09-03 腾讯科技(深圳)有限公司 分布式事务处理方法和装置、存储介质及电子装置
CN108959660A (zh) * 2018-08-15 2018-12-07 东北大学 一种基于hdfs分布式文件系统的存储方法及使用方法
CN110147331A (zh) * 2019-05-16 2019-08-20 重庆大学 缓存数据处理方法、系统及可读存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220019697A1 (en) * 2020-07-16 2022-01-20 Humanscape Inc. System for embedding digital verification fingerprint and method thereof
US11836274B2 (en) * 2020-07-16 2023-12-05 Humanscape Inc. System for embedding digital verification fingerprint and method thereof
CN113010103A (zh) * 2021-01-15 2021-06-22 腾讯科技(深圳)有限公司 数据存储方法、装置、相关设备及存储介质
CN115712583A (zh) * 2023-01-09 2023-02-24 之江实验室 一种提升分布式缓存跨节点访问性能的方法及装置、介质
CN115712583B (zh) * 2023-01-09 2023-04-18 之江实验室 一种提升分布式缓存跨节点访问性能的方法及装置、介质

Also Published As

Publication number Publication date
CN111309262B (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
US11789860B2 (en) Logical to physical mapping management using low-latency non-volatile memory
CN111309262B (zh) 一种分布式存储缓存读取和写入方法
US8966155B1 (en) System and method for implementing a high performance data storage system
US20130339567A1 (en) Two level addressing in storage clusters
CN114546296B (zh) 一种基于zns固态硬盘的全闪存系统和地址映射方法
US6996582B2 (en) Virtual storage systems and virtual storage system operational methods
US11237980B2 (en) File page table management technology
CN113626431A (zh) 一种基于lsm树的延迟垃圾回收的键值分离存储方法及系统
CN107888687B (zh) 一种基于分布式存储系统的代理客户端存储加速方法及系统
US12073122B2 (en) Memory system with controller to write data to memory based on lifetime information in write command
WO2016123748A1 (zh) 一种闪存存储系统及其读写、删除方法
CN113254365A (zh) 存储空间的管理方法、装置、设备、介质和程序产品
US20080147970A1 (en) Data storage system having a global cache memory distributed among non-volatile memories within system disk drives
CN116364148A (zh) 一种面向分布式全闪存储系统的磨损均衡方法及系统
Lv et al. Zonedstore: A concurrent zns-aware cache system for cloud data storage
US11372774B2 (en) Method and system for a solid state drive with on-chip memory integration
CN111338569A (zh) 一种基于直接映射的对象存储后端优化方法
CN111274259A (zh) 一种分布式存储系统中存储节点的数据更新方法
JP2021114264A (ja) ストレージ制御装置およびストレージ制御プログラム
EP4307129A1 (en) Method for writing data into solid-state hard disk
US6842843B1 (en) Digital data storage subsystem including arrangement for increasing cache memory addressability
EP4187363B1 (en) Storage controller, storage control method, solid state disk and storage system
CN114647388A (zh) 一种高性能分布式块存储系统和管理方法
JPS6154547A (ja) 3レベルの階層メモリを備えたデ−タ処理システム
CN111309261A (zh) 一种分布式存储系统中单节点上数据物理位置映射方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A method for reading and writing distributed storage cache

Effective date of registration: 20210928

Granted publication date: 20210129

Pledgee: Xi'an investment and financing Company limited by guarantee

Pledgor: Xi'an Okayun Data Technology Co.,Ltd.

Registration number: Y2021980010138

PC01 Cancellation of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20221009

Granted publication date: 20210129

Pledgee: Xi'an investment and financing Company limited by guarantee

Pledgor: Xi'an Okayun Data Technology Co.,Ltd.

Registration number: Y2021980010138

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A read and write method for distributed storage cache

Effective date of registration: 20221017

Granted publication date: 20210129

Pledgee: Xi'an investment and financing Company limited by guarantee

Pledgor: Xi'an Okayun Data Technology Co.,Ltd.

Registration number: Y2022610000660

PC01 Cancellation of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20231101

Granted publication date: 20210129

Pledgee: Xi'an investment and financing Company limited by guarantee

Pledgor: Xi'an Okayun Data Technology Co.,Ltd.

Registration number: Y2022610000660

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A distributed storage cache read and write method

Granted publication date: 20210129

Pledgee: Shaanxi Xixian New Area Small Loan Co.,Ltd.

Pledgor: Xi'an Okayun Data Technology Co.,Ltd.

Registration number: Y2024980029970