CN114442962A - 一种数据读方法、装置、设备以及存储介质 - Google Patents

一种数据读方法、装置、设备以及存储介质 Download PDF

Info

Publication number
CN114442962A
CN114442962A CN202210138327.XA CN202210138327A CN114442962A CN 114442962 A CN114442962 A CN 114442962A CN 202210138327 A CN202210138327 A CN 202210138327A CN 114442962 A CN114442962 A CN 114442962A
Authority
CN
China
Prior art keywords
data
index
storage device
copy
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210138327.XA
Other languages
English (en)
Other versions
CN114442962B (zh
Inventor
易正利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210138327.XA priority Critical patent/CN114442962B/zh
Publication of CN114442962A publication Critical patent/CN114442962A/zh
Application granted granted Critical
Publication of CN114442962B publication Critical patent/CN114442962B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种数据读方法、装置、设备以及存储介质,涉及数据处理领域,尤其涉及分级存储技术领域和分布式存储领域。具体实现方案为:向前端存储设备发送用于请求目标数据的第一读请求;获取所述前端存储设备响应于所述第一读请求发送的后端提交索引;向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;获取所述后端存储设备响应于所述第二读请求发送的所述已下刷数据。可以提高客户端设备从后端存储设备读数据的效率。

Description

一种数据读方法、装置、设备以及存储介质
技术领域
本公开涉及数据处理技术领域,尤其涉及分级存储技术领域和分布式存储技术领域。
背景技术
基于分布式一致性算法构建的分布式存储能够保持元数据的一致性。因此分布式存储被广泛地应用于分级存储系统中,用以提高分级存储系统中存储的数据的可靠性。
发明内容
本公开提供了一种数据读方法、装置、设备以及存储介质。
根据本公开的第一方面,提供了一种数据读方法,应用于客户端设备,包括:
向前端存储设备发送用于请求目标数据的第一读请求;
获取所述前端存储设备响应于所述第一读请求发送的后端提交索引,其中,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为所述目标数据中已经被写入后端存储设备的数据;
向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
获取所述后端存储设备响应于所述第二读请求发送的所述已下刷数据。
根据本公开的第二方面,提供了一种数据读方法,应用于前端存储设备,包括:
获取客户端设备发送的用于请求目标数据的第一读请求;
确定所述目标数据中已经被写入后端存储设备的后端复制组的已下刷数据;
确定所述已下刷数据对应的后端提交索引,所述后端提交索引为所述前端存储设备将所述已下刷数据写入所述后端复制组后所述后端复制组的提交索引;
向所述客户端设备发送所述后端提交索引,所述后端提交索引用于驱动所述客户端设备向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据并发送至所述客户端设备。
根据本公开的第三方面,提供了一种数据读方法,应用于后端存储设备,包括:
获取客户端设备发送的携带有后端提交索引的第二读请求,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为目标数据中已经被写入后端存储设备的数据,所述后端提交索引为前端存储设备响应于第一读请求发送至所述客户端设备的,所述第一读请求用于请求所述目标数据;
从所述后端复制组中应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
向所述客户端设备发送所述已下刷数据。
根据本公开的第四方面,提供了一种数据读装置,应用于客户端设备,包括:
第一读请求发送模块,用于向前端存储设备发送用于请求目标数据的第一读请求;
第一索引获取模块,获取所述前端存储设备响应于所述第一读请求发送的后端提交索引,其中,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为所述目标数据中已经被写入后端存储设备的数据;
第二读请求发送模块,用于向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
第一数据获取模块,用于获取所述后端存储设备响应于所述第二读请求发送的所述已下刷数据。
根据本公开的第五方面,提供了一种数据读装置,应用于前端存储设备,包括:
第二读请求获取模块,用于获取客户端设备发送的用于请求目标数据的第一读请求;
已下刷数据确定模块,用于确定所述目标数据中已经被写入后端存储设备的后端复制组的已下刷数据;
后端提交索引确定模块,用于确定所述已下刷数据对应的后端提交索引,所述后端提交索引为所述前端存储设备将所述已下刷数据写入所述后端复制组后所述后端复制组的提交索引;
后端提交索引发送模块,用于向所述客户端设备发送所述后端提交索引,所述后端提交索引用于驱动所述客户端设备向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据并发送至所述客户端设备。
根据本公开的第六方面,提供了一种数据读装置,应用于后端存储设备,包括:
第三读请求模块,用于获取客户端设备发送的携带有后端提交索引的第二读请求,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为目标数据中已经被写入后端存储设备的数据,所述后端提交索引为前端存储设备响应于第一读请求发送至所述客户端设备的,所述第一读请求用于请求所述目标数据;
已下刷数据获取模块,用于从所述后端复制组中应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
已下刷数据发送模块,用于向所述客户端设备发送所述已下刷数据。
根据本公开的第七方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面或第二方面或第三方面中任一项所述的方法。
根据本公开的第七方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据第一方面或第二方面或第三方面中任一项所述的方法。
根据本公开的第八方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第一方面或第二方面或第三方面中任一项所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开提供的应用于客户端设备的数据读方法的流程示意图;
图2是根据本公开提供的分级存储系统的结构示意图;
图3是根据本公开提供的应用于主副本的数据写入方法的一种示意图;
图4是根据本公开提供的应用于从副本的数据写入方法的一种示意图;
图5是根据本公开提供的应用于客户端设备的数据读方法的另一种流程示意图;
图6是根据本公开提供的客户端设备与前端存储设备的一种交互示意图;
图7是根据本公开提供的应用于前端存储设备的数据读方法的流程示意图;
图8是根据本公开提供的应用于后端存储设备的数据读方法的流程示意图;
图9a是根据本公开提供的目标数据写入过程中各设备间的交互示意图;
图9b是根据本公开提供的数据下刷过程中各设备间的交互示意图;
图9c是根据本公开提供的目标数据读取过程中各设备间的交互示意图;
图10是根据本公开提供的应用于客户端设备的数据读装置的流程示意图;
图11是根据本公开提供的应用于前端存储设备的数据读装置的流程示意图;
图12是根据本公开提供的应用于后端存储设备的数据读装置的流程示意图;
图13是用来实现本公开实施例的数据读方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
为了更清楚的对本公开提供的数据读取方法进行说明,下面将对本公开提供的数据读取方法的一种可能的应用场景进行示例性的说明,可以理解的是,以下示例仅是本公开提供的数据读取方法的一种可能的应用场景,在其他可能的实施例中,本公开提供的数据读取方法也可以应用于其他可能的应用场景,以下示例对此不做任何限制。
分级存储系统中包括前端存储设备和后端存储设备,其中,前端存储设备的存储介质的性能高于后端存储设备的存储介质,后端存储设备的存储容量大于前端存储设备,并且前端存储设备和后端存储设备均采用基于分布式一致性算法构建的分布式存储系统,关于基于分布式一致性算法构建的分布式存储系统的原理将在下文中进行描述,在此不再赘述。
客户端设备将数据写入前端存储设备,当满足预设下刷条件时,如存储的数据的数据量达到预设数据量阈值、达到预设时间节点等,前端存储设备将存储于前端存储设备的所有或部分数据写入后端存储介质进行存储,并在前端存储设备本地删除这些已经写入后端存储介质的数据(下文称已下刷数据),该过程称为下刷。
由于客户端写入分级存储系统中的数据可能被下刷至后端存储设备,因此,当客户端设备需要读取预先写入的数据时需要从后端存储设备中读取已下刷数据。因此如何提高客户端设备读取已下刷数据的效率,成为亟待解决的技术问题。
基于此,本公开提供了一种数据读取方法,应用于客户端,可以如图1所示,包括:
S101,向前端存储设备发送用于请求目标数据的第一读请求。
S102,获取前端存储设备响应于第一读请求发送的后端提交索引。
其中,后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后后端复制组的提交索引,已下刷数据为目标数据中已经被写入后端存储设别的数据。
S103,向后端存储设备发送携带有后端提交索引的第二读请求。
第二读请求用于驱动后盾存储设备从后端复制组的、应用索引不小于后端提交索引的副本中读取已下刷数据。
S104,获取后端存储设备响应于第二读请求发送的已下刷数据。
选用该实施例,可以利用后端提交索引从后端存储设备读取数据,由于后端提交索引为已下刷数据写入后端存储设备的后端复制组后后端复制组的提交索引,因此,后端提交索引可以视为前端存储设备在将已下刷数据下刷至后端存储设备时向后端复制组发送的写请求的日志的日志索引,并且由于日志的提交与应用是逐一进行的,因此如果一个副本的应用索引不小于该日志的日志索引,则可以认为该副本已经将完成已下刷数据的下刷之前前端存储设备每次向后端复制组发送的写请求的日志应用于该副本的状态机,即该副本中包含完成已下刷数据的下刷之前向后端复制组写入的所有数据。因此可以从应用索引不小于最新提交索引的副本中成功读取已下刷数据。同时,由于在前端存储设备在将已下刷数据写入后端复制组数据后,可能将其他数据写入后端复制组,因此后端提交索引往往小于后端复制组当前的提交索引,可见相比于应用索引不小于后端复制组的提交索引的副本,后端复制组中应用索引不小于后端提交索引的副本的数量更多,因此更容易从副本中查找到应用索引不小于后端提交索引的副本,即查找应用索引不小于后端提交索引的副本花费的时间相对较少,因此数据读取效率更高。即,选用该实施例,可以有效提高客户端设备从后端存储设备中读取已下刷数据的效率。
其中,在S101中,目标数据为预先写入前端存储设备的数据,并且如前述关系分级存储系统的说明,目标数据中的所有或部分数据可能已经下刷至后端存储设备。如果目标数据中的所有数据均未下刷至后端存储设备,则客户端设备能够从前端设备处获取完整的目标数据,客户端设备无需从后端存储设备处获取数据,并不涉及客户端从后端存储设备读取数据的效率,因此本公开对该情况不做讨论。
在S102中,由于已下刷数据是由前端存储设备写入后端存储设备的,因此前端存储设备能够获取到将已下刷数据写入后端存储复制组后后端复制组的提交索引,示例性的,在一种可能的实施例中,响应于前端存储设备将已下刷数据写入后端存储设备,后端存储设备向前端存储设备发送携带有后端复制组的提交索引的写应答请求,前端存储设备将该写应答请求所携带的提交索引作为已下刷数据对应的后端提交索引。在另一种可能的实施例中,前端存储设备也可以通过统计向后端复制组写入数据的次数与顺序获取后端提交索引,示例性的,假设在将已下刷数据写入后端复制组之前,前端存储设备累计向目标复制组写入10次数据,则由于日志的提交是逐一进行的,因此前端存储设备确定后端提交索引为“11”。
在S103中,如果一个副本的应用索引不小于后端提交索引,则可以认为该副本中已经写入全额数据,其中全额数据是指将已下刷数据写入后端复制组时以及之前写入后端复制组的数据。
而全额数据中显然包括已下刷数据,因此若一个副本的应用索引不小于后端提交索引,则能够从该副本中成功读取第一读请求请求的数据。
后端存储设备中包含一个或多个后端复制组,在后端存储设备中包含多个后端复制组的情况下,第二读请求中携带有目标后端复制组的组标识,其中,目标后端复制组为已下刷数据被写入的后端复制组。组标识用于驱动后端存储设备根据组标识确定目标后端复制组。
目标后端复制组的组标识为前端存储设备发送至客户端设备的,由于已下刷数据是由前端存储设备写入目标后端复制组的,因此前端存储设备能够确定出目标后端复制组。
其中,组标识可以是任意形式的标识,并且用于唯一标识复制组,即不同复制组的组标识不同,相同组标识所标识的复制组相同。第二数据读请求中还可以携带有用于标识已下刷数据的数据标识,数据标识用于驱动后端存储设备根据数据标识读取已下刷数据。
在S104中,可以是接收后端存储设备直接发送的已下刷数据。也可以是由后端存储设别将读取到的已下刷数据写入预设存储介质,客户端从该预设存储介质中读取这些数据。
为了更清楚的对本公开提供的数据读方法进行说明,下面将对基于分布式一致性算法构建的分布式存储系统的原理进行说明,
基于分布式一致性算法构建的分布式存储系统中可以包括由多个副本组成的复制组,在每个复制组中一个副本为主副本(leader),其他副本为从副本(follow),客户端可以通过主副本接入分布式存储系统。主副本与从副本之间通过Raft保持元数据的一致性。
示例性的,在分级存储系统的场景中,基于Raft构建的分布式存储系统的结构可以如图2所示,包括客户端设备、前端存储端设备以及后端存储设备,前端存储设备和后端存储设备各自由多个存储节点构成,该多个存储节点可以全部为物理存储节点,也可以全部虚拟存储节点,还可以是一部分为物理存储节点,另一部分为虚拟存储节点。前端存储设备中的多个存储节点被划分为多个前端复制组,每个前端复制组中的各存储节点用于存储相同的数据,即每个存储节点可以视为同一前端复制组中其他存储节点的副本,因此下文中称这些存储节点为副本。每个前端复制组包括一个前端主副本以及多个前端从副本。
同理于前端存储设备,后端存储设备中的多个存储节点被划分为多个后端复制组,每个后端复制组包括一个后端主副本以及多个后端从副本。
由于客户端设备向前端复制组中写入数据的方式,与前端存储设备向后端复制组中写入的数据的方式相同,因此这里仅以客户端设备向前端复制组中写入数据为例,对复制组中主副本和从副本如何响应用于写入数据的写请求进行说明,为描述方便,以下示例中将前端主副本简称为主副本,将前端从副本简称为从副本:
关于复制组中的主副本响应写请求的流程,参见图3,包括:
S301,每当主副本接收到客户端设备发送的写请求,生成该写请求的日志,并为该日志(log)分配日志索引。
其中,一个写请求的日志可以用于表示该写请求请求写入的数据,也可以用于表示该写请求请求执行的写入操作。
主副本是按照接收到写请求由早到晚的顺序依次生成各写请求的日志的,即越早接收到的写请求的日志生成的越早。每个日志的日志索引为上一个日志的日志索引加一,其中,上一个日志是指在该日志生成之前最后一个生成的日志,第一个生成的日志的日志索引为“1”。
示例性的,假设主副本一共接收到3个写请求,分别记为写请求1-3,并且主副本最先接收到写请求1,再接收到写请求2,最后接收到写请求3,则主副本最先生成写请求1的日志(下文称日志1),并为日志1分配日志索引“1”,再生成写请求2的日志(下文称日志2),并为日志2分配日志索引“2”,再生成写请求3的日志(下文称日志3),并为日志3分配日志索引“3”。
S302,主副本将日志索引为该复制组的提交索引(commit index)加一的日志复制至各从副本。
示例性的,假设复制组的提交索引为“1”,则主副本将日志索引为“2”的日志,即日志2,复制至各从副本中。复制组的提交索引初始时为“0”,如果不存在日志索引为复制组的提交索引加一的日志,则可以认为所有日志均已成功提交。
S303,当主副本将该日志成功地复制至一定数量的从副本,确定该日志成功提交,并将复制组的提交索引更新为该日志的日志索引。
其中,该日志即S302中日志索引为该复制组的提交索引加一的日志。该一定数量大于复制组中从副本的总数的一半,且不大于复制组中从副本的总数,例如,假设复制组中一共包括10个从副本,则该一定数量可以是指6-10中的任意整数。
示例性的,以该日志为日志2为例,当主副本成功地将日志2复制至一定数量的从副本,则主副本确定日志2成功提交,并将复制组的提交索引更新为日志2的日志索引,即将复制组的提交索引更新为“2”。
S304,主副本将该日志应用(apply)于主副本的状态机(state machine),以将该日志所属写请求请求写入的数据写入主副本。
示例性的,以该日志为日志2为例,主副本可以将日志2应用于主副本的状态机,从而将写请求2请求写入的数据写入主副本。
S305,主副本针对该应用所属的写请求向客户端发送携带有复制组的提交索引的写应答请求,并返回执行前述S302。
由于在S303中将复制组的提交索引更新为该日志的日志索引,因此写应答请求中携带的提交索引即为该日志的日志索引,以该日志为日志2为例,则写应答请求中携带的日志索引为“2”。
客户端在接收到写应答请求后确定该写应答请求所针对的写请求已经被复制组成功处理,即该写请求请求写入的数据已经被成功写入复制组,下文中为描述方便将成功写入复制组的数据称为已写入数据。
下面将对复制组中从副本响应写请求的流程进行说明,可以参见图4,图4所示为本公开提供的应用于复制组的从副本的数据写入方法,可以包括:
S401,从副本确定该从副本的应用索引(apply index)是否小于复制组的提交索引。
其中,从副本的应用索引初始时为“0”,每个从副本各自维护有各自的应用索引。
S402,如果是,从副本将日志索引为应用索引加一的日志应用于该从副本的状态机,以将该日志所属写请求请求写入的数据写入该从副本。
示例性的,假设从副本的应用索引为“0”,复制组的提交索引为“2”,此时从副本的应用索引小于复制组的提交索引,因此从副本将日志索引为“0”加一的日志应用于从副本的状态机,即将日志1应用于从副本的状态机,以将写请求1请求写入的数据写入从副本。
S403,从副本将该从副本的应用索引更新为该日志的日志索引,并返回执行S401。
其中,该日志即S402中的日志索引为应用索引加一的日志。因此,该步骤也可以视为从副本将该从副本的应用索引自加一。
可以理解的是,复制组的提交索引为复制组最后一个成功提交的日志的日志索引,而从副本的应用索引可以视为该最后一个应用于该从副本的状态机的日志的日志索引,并且日志的提交与应用是逐一进行的。
因此如果从副本的应用索引小于复制组的提交索引,则可以认为存在已经成功提交但是尚未应用于从副本的状态机的日志,这些日志所属的写请求请求写入的数据已经被写入主副本但是尚未被写入从副本,因此从副本需要依次将这些日志应用于该从副本的状态机,以将这些日志所属的写请求请求写入的数据写入从副本,使得从副本与主副本之间的数据保持一致。
如前述说明,可见对于同一日志,各个副本是分别将该日志应用于该副本的状态机的,并且当客户端接收到主副本针对写请求发送的写应答请求时,只有主副本必然已经将该写请求的日志应用于状态机,而从副本可能尚未将该写请求的日志应用于状态机。换言之,当客户端设备接收到针对写请求发送的写应答请求时,该写请求请求写入的数据可能仅被写入主副本以及一部分的从副本,而尚未被写入另一部分的从副本,即仅有主副本中总是包含所有已写入数据,而部分从副本中可能并不包所有已写入数据。
同理,对于前端存储设备下刷至后端存储设备的已下刷数据,也可能仅被写入后端主副本以及一部分的后端从副本,而部分后端从副本中可能并不包所有已下刷数据。
因此,当客户端设备需要从后端复制组的副本中读取已下刷数据时,可能仅能够从后端主副本以及一部分的后端从副本中成功读取已下刷数据。因此,在一种可能的实施例中,客户端设备仅从后端主副本中读取已下刷数据,而不从后端从副本中读取已下刷数据。
但是当出于各种原因导致客户端设备无法从后端主副本中读取数据时,例如客户端设备与后端主副本之间的网络连接出现故障,又例如后端主副本发生异常,再例如后端存储设备中的分布式存储系统暂时处于没有主副本的状态,将导致客户端设备因无法读取已下刷数据而无法正常运行,即影响了客户端设备运行的稳定性。
因此相关技术中,客户端设备也可以从包含所有已写入数据的后端从副本中读取已下刷数据。示例性的,客户端设备记录并更新后端复制组的提交索引,当需要从后端复制组中读取已下刷数据时,可以向后端存储设备发送携带所记录的提交索引的读请求,以使得后端存储设备根据读请求所携带的提交索引,查找应用索引不小于提交索引的副本,并从查找到的副本中读取数据。
由于一个副本的应用索引为最后一个应用于该副本的状态机的日志的日志索引,而复制组的提交索引为最后一个成功提交的日志的日志索引,并且如前述说明日志的提交与应用是逐一进行的,因此如果一个副本的应用索引不小于复制组的提交索引,则可以认为所有已经成功提交的日志均已被应用于该副本的状态机,即该副本包含所有成功提交的日志所属写请求请求写入的数据。并且如前述说明,由于一个写请求请求写入的数据被成功写入复制组时,该写请求的日志必然已经成功提交,因此该副本包含所有已写入数据。
可见,如果后端复制组中一个副本的应用索引不小于后端复制组的提交索引,则可以认为该副本中包含所有已写入数据,因此可以从该副本中读取已下刷数据。
但是,由于仅有一部分的后端从副本的应用索引不小于后端复制组的提交索引,因此需要消耗一定时间从所有后端从副本中查找出应用索引不小于后端复制组的提交索引的从副本,导致数据读取效率较低。
而选用本公开提供的数据读方法,由于后端提交索引往往小于后端复制组的提交索引,因此更容易从副本中查找到应用索引不小于后端提交索引的副本,即查找应用索引不小于后端提交索引的副本花费的时间相对较少,因此数据读取效率更高。可见,本公开提供的数据读方法能够有效提高客户端设备从后端存储设备中读取已下刷数据的效率。
可以理解的是,若所有目标数据均下刷至后端存储设备,则已下刷数据为完整的目标数据,客户端设备在从后端存储设备处获取已下刷数据后则完成目标数据的读取。
而若目标数据仅被部分下刷至后端存储设备,则已下刷数据为部分的目标数据,客户端设备为获取完整的目标数据,还需要从前端存储设备中获取目标数据中尚未下刷至后端存储设备的数据(下文称为未下刷数据)。
如前述关于基于分布式一致性算法构建的分布式存储系统的原理的相关说明,未下刷数据可能仅被写入前端主副本以及一部分的前端从副本,而部分前端从副本中可能并不包未下刷数据。
因此,当客户端设备需要从前端复制组的副本中读取未下刷数据时,可能仅能够从前端主副本以及一部分的前端从副本中成功读取未下刷数据。因此,在一种可能的实施例中,客户端设备仅从前端主副本中读取未下刷数据,而不从前端从副本中读取未下刷数据。
但是当出于各种原因导致客户端设备无法从前端主副本中读取数据时,例如客户端设备与前端主副本之间的网络连接出现故障,又例如前端主副本发生异常,再例如前端存储设备中的分布式存储系统暂时处于没有主副本的状态,将导致客户端设备因无法读取未下刷数据而无法正常运行,即影响了客户端设备运行的稳定性。
因此相关技术中,客户端设备也可以从包含所有已写入数据的前端从副本中读取未下刷数据。示例性的,客户端设备记录并更新前端复制组的提交索引,当需要从前端复制组中读取未下刷数据时,可以向前端存储设备发送携带所记录的提交索引的读请求,以使得前端存储设备根据读请求所携带的提交索引,查找应用索引不小于提交索引的副本,并从查找到的副本中读取数据。
由于一个副本的应用索引为最后一个应用于该副本的状态机的日志的日志索引,而复制组的提交索引为最后一个成功提交的日志的日志索引,并且如前述说明日志的提交与应用是逐一进行的,因此如果一个副本的应用索引不小于复制组的提交索引,则可以认为所有已经成功提交的日志均已被应用于该副本的状态机,即该副本包含所有成功提交的日志所属写请求请求写入的数据。并且如前述说明,由于一个写请求请求写入的数据被成功写入复制组时,该写请求的日志必然已经成功提交,因此该副本包含所有已写入数据。
可见,如果前端复制组中一个副本的应用索引不小于前端复制组的提交索引,则可以认为该副本中包含所有已写入数据,因此可以从该副本中读取已下刷数据。
但是,由于仅有一部分的前端从副本的应用索引不小于前端复制组的提交索引,因此需要消耗一定时间从所有前端从副本中查找出应用索引不小于前端复制组的提交索引的从副本,导致数据读取效率较低。
基于此,在一种可能的实施例中,本公开提供的数据读方法,如图5所示,包括:
S501,获取目标发送的用于读取图目标数据的第三读请求。
其中,目标应用可以为客户端设备上的任意应用
S502,确定前端存储设备的前端复制组对应于目标应用的最新提交索引。
其中,最新提交索引用于表示目标应用最后一次在前端复制组写入数据后前端复制组的提交索引。
S503,向前端存储设备发送用于请求目标数据的第一读请求。
第一读请求中携带有最新提交索引,第一读请求用于驱动前端存储设备从前端复制组的、应用索引不小于最新提交索引的副本中读取未下刷数据。
S504,获取前端存储设备响应于第一读请求发送的未下刷数据和后端提交索引。
S505,向后端存储设备发送携带有后端提交索引的第二读请求。
该步骤与前述S103相同,可以参见前述S103的相关说明,在此不再赘述。
S506,获取后端存储设备响应于第二读请求发送的已下刷数据。
选用该实施例,可以利用最新提交索引从前端存储设备读取数据,由于最新提交索引为目标应用最后一次在前端复制组写入数据后前端复制组的提交索引,因此如前述说明,最新提交索引可以视为目标应用最后一次向前端复制组发送的写请求的日志的日志索引,并且由于日志的提交与应用是逐一进行的,因此如果一个副本的应用索引不小于该日志的日志索引,则可以认为该副本已经将目标应用每次向目标复制组发送的写请求的日志应用于该副本的状态机,即该副本中包含目标应用向该复制组写入的所有数据。因此可以从应用索引不小于最新提交索引的副本中成功读取未下刷数据。同时,由于在目标应用最后一次在前端复制组写入数据后可能还有其他应用在前端复制组写入数据,因此最新提交索引往往小于前端复制组的提交索引,可见相比于应用索引不小于前端复制组的提交索引的副本,前端复制组中应用索引不小于最新提交索引的副本的数量更多,因此更容易从副本中查找到应用索引不小于最新提交索引的副本,即查找应用索引不小于最新提交索引的副本花费的时间相对较少,因此数据读取效率更高。即选用该实施例,可以提高客户端设备从前端存储设备中读取未下刷数据的效率,从而进一步提高客户端设备从分级存储系统中读取目标数据的效率。
为了更清楚的对本公开提供的数据读取方法进行说明,下面将对如何确定最新提交索引进行示例性的说明,以下示例仅是本公开提供的一种确定最新提交索引的方法,在其他可能的实施例中,也可以是按照其他方式确定最新提交索引的,以下示例对此不做任何限制。
在该示例中,客户端设备针对每个应用维护有该应用对应的专属映射表,专属映射表中记录有各个复制组对应的提交索引,并且客户端设备每当接收到前端存储设备发送的前端复制组针对应用生成的写应答请求,在该应用对应的专属映射表中,将该复制组对应的提交索引更改为写应答请求所携带的提交索引。其中,写应答请求为在该应用在前端复制组中写入数据后生成的,并且携带有该应用在该前端复制组中写入数据后该前端复制组的提交索引。关于写应答请求可以参见前述图3的相关描述,在此不再赘述。
当前端存储设备中存在多个前端复制组时,为了区别生成写应答请求的目标前端复制组与其他前端复制组,写应答请求中还可以携带生成写应答请求的目标前端复制组的组标识。
选用该实施例,可以利用专属映射表分别为每个应用记录各自对应的最后一次写应答请求中携带的提交索引,以便于根据所记录的提交索引准确、便捷地确定出目标复制组对应于目标应用的最新提交索引。
在该示例中,确定前端复制组对应于目标应用的最新提交索引,包括:将目标应用对应的专属映射表中前端复制组对应的提交索引确定为最新提交索引。
可以理解的是,由于理论上每当目标应用成功在前端复制组写入数据,前端复制组将针对目标应用生成写应答请求,并且该写应答请求中携带有目标应用本次在前端复制组写入数据后前端复制组的提交索引,而在目标应用对应的专属映射表中,前端复制组对应的提交索引为最后一次接收到的前端复制组针对目标应用生成的写应答请求中携带的提交索引。因此,目标应用对应的专属映射表中前端复制组对应的提交索引即为最新提交索引。
为方便描述,假设客户端设备中存在两个应用,分别记为应用A和应用B,前端存储端设备中一共存在两个前端复制组,分别记为前端复制组1、前端复制组2,并且前端复制组1的组标识为frontend rg_id1,前端复制组2的组标识为frontend rg_id2。并且假设应用A在前端复制组1中写入第一数据,在前端复制组2中写入第三数据,应用B在前端复制组1中写入第二数据,在前端复制组2中写入第四数据。第一数据至第四数据的写入顺序由先到后为:第一数据、第二数据、第三数据、第四数据。
则在一种可能的应用场景中,写入第一数据至第四数据后,客户端设备与前端存储端之间的交互可以如图6所示,包括:
S601,在第一数据写入前端复制组1后,前端存储设备针对应用A向客户端设备发送携带有frontend rg_id1、提交索引1的写应答请求。
其中,第一数据写入前端复制组1是指请求写入第一数据的写请求的日志被应用于前端复制组1的主副本的状态机。提交索引1为第一数据写入前端复制组1后前端复制组1的提交索引。
S602,客户端设备在应用A对应的专属映射表中,将frontend rg_id1对应的提交索引更改为提交索引1。
S603,在第二数据写入前端复制组1后,前端存储设备针对应用B向客户端设备发送携带有frontend rg_id1、提交索引2的写应答请求。
提交索引2为第二数据写入前端复制组1后前端复制组1的提交索引,由于第二数据晚于第一数据写入,因此提交索引2大于提交索引1。
S604,客户端设备在应用B对应的专属映射表中,将frontend rg_id1对应的提交索引更改为提交索引2。
S605,在第三数据写入前端复制组2后,前端存储设备针对应用A向客户端设备发送携带有frontend rg_id2、提交索引3的写应答请求。
提交索引3为第三数据写入前端复制组1后前端复制组1的提交索引。
S606,客户端设备在应用A对应的专属映射表中,将frontend rg_id2对应的提交索引更改为提交索引3。
S607,在第四数据写入前端复制组2后,前端存储设备针对应用B向客户端设备发送携带有frontend rg_id2、提交索引4的写应答请求。
提交索引4为第四数据写入前端复制组2后前端复制组2的提交索引,由于第四数据晚于第三数据写入,因此提交索引4大于提交索引3。
S608,客户端设备在应用B对应的专属映射表中,将frontend rg_id2对应的提交索引更改为提交索引4。
此时应用A对应的专属映射表如下所示:
复制组 提交索引
frontend rg_id1 提交索引1
frontend rg_id2 提交索引3
此时应用B对应的专属映射表如下所示:
复制组 提交索引
frontend rg_id1 提交索引2
frontend rg_id2 提交索引4
而此时前端复制组1的提交索引为提交索引2,前端复制组2的提交索引为提交索引4。假设目标应用为应用A而目标前端复制组为前端复制组1,则通过查询应用A对应的专属映射表可知前端复制组1对应的提交索引为提交索引1,则此时最新提交索引为提交索引1。
在一些应用场景中,可能因各种原因导致无法成功确定前端复制组对应于目标应用的最新提交索引,例如目标应用未曾在前端复制组中写入数据、记录出错等情况,导致目标应用对应的专属映射表中未记录前端复制组对应的提交索引,因此无法从专属映射表中确定最新提交索引,进而无法根据最新提交索引从存储端中读取未下刷数据。在一种实现方式中,可以按照其他方式确定最新提交索引,例如,客户端设备统计历史接收到的前端存储设备发送的写应答请求确定最新提交索引,也可以是利用其他提交索引从存储端读取数据。
示例性的,在一种实现方式中,客户端设备中除了维护每个应用对应的专属映射表外,还维护共享映射表,并且每当接收到前端存储设备发送的前端复制组针对应用生成的写应答请求,确定写应答请求携带的提交索引是否大于共享映射表中该前端复制组对应的提交索引。
如果是,则在共享映射表中将前端复制组对应的提交索引更新为写应答请求所携带的提交索引。如果否,则不更新共享映射表。
在该实现方式中,如果目标应用对应的专属映射表中未记录前端复制组对应的提交索引,则将共享映射表中目标应用对应的提交索引确定为目标提交索引。
并向前端存储设备发送携带有目标提交索引的第四读请求,第四读请求用于驱动存储端从应用索引不小于目标提交索引的副本中读取未下刷数据。
选用该实施例,可以通过共享映射表记录所有应用在各前端复制组写入数据后各前端复制组的提交索引,由于共享映射表只在写应答请求中携带的提交索引大于记录的提交索引时更新,因此共享映射表中记录的提交索引为各前端复制组在最后一次被写入数据后的提交索引,即理论上共享映射表中记录的各前端复制组对应的提交索引将与各前端复制组各自的提交索引保持同步。
因此共享映射表中记录的前端复制组对应的目标提交索引即为前端复制组的提交索引,因此前端复制组中应用索引不小于目标提交索引的副本可以认为是已经写入所有已写入数据的副本,因此可以从该副本中成功读取第一读请求所请求的数据。即选用该实施例可以利用共享映射表中记录目标提交索引,在目标应用对应的专属映射表中未记录前端复制组对应的提交索引的情况下从写入有所有已写入数据的副本中读取数据,提高了数据读取成功率。
为了更清楚的对共享映射表进行说明,仍以图6所示交互图为例,在S601后,共享映射表如下所示:
复制组 提交索引
frontend rg_id1 提交索引1
在S603后,共享映射表如下所示:
复制组 提交索引
frontend rg_id1 提交索引2
在S605后,共享映射表如下所示:
复制组 提交索引
frontend rg_id1 提交索引2
frontend rg_id2 提交索引3
在S607后,共享映射表如下所示:
复制组 提交索引
frontend rg_id1 提交索引2
frontend rg_id2 提交索引4
在一些应用场景中,可能因客户端中各应用未曾在前端复制组中写入数据、记录出错等情况,导致共享映射表中未记录前端复制组对应的提交索引,因此无法从共享映射表中确定目标提交索引,进而无法根据目标提交索引从前端存储设备中读取未下刷数据。在一种实现方式中,可以按照其他方式确定目标提交索引,例如,可以向前端存储设备发送用于获取前端复制组的提交索引的请求,以从前端存储设备获取前端复制组的提交索引作为目标提交索引。
在又一种实现方式中,如果未成功确定前端复制组对应于目标应用的最新提交索引,且共享映射表中未记录前端复制组对应的提交索引,则客户端设备向前端存储设备发送未携带提交索引的第五读请求,第五读请求用于驱动前端存储设备从前端复制组的主副本中读取未下刷数据。
可以理解的是,由于主副本中写入有最新的数据,因此理论上可以从主副本中成功读取未下刷数据。选用该实施例,可以在共享映射表中未记录前端复制组对应的提交索引的情况下从主副本中读取数据,从而进一步提高数据读取成功率。
对应于前述应用于客户端设备的数据读方法,本公开还提供了一种应用于前端存储设备的数据读方法,如图7所示,包括:
S701,获取客户端设备发送的用于请求目标数据的第一读请求。
S702,确定目标数据中已经被写入后端存储设备的后端复制组的已下刷数据。
S703,确定已下刷数据对应的后端提交索引。
其中,后端提交索引为前端存储设备将已下刷数据写入后端复制组后后端复制组的提交索引。
S704,向客户端设备发送后端提交索引。
其中,后端提交索引用于驱动客户端设备向后端存储设备发送携带有后端提交索引的第二读请求,第二读请求用于驱动后端存储设备从后端复制组的、应用索引不小于后端提交索引的副本中读取已下刷数据并发送至客户端设备。
选用该实施例,可以使得客户端设备能够利用后端提交索引从后端存储设备读取数据,由于后端提交索引为已下刷数据写入后端存储设备的后端复制组后后端复制组的提交索引,因此,后端提交索引可以视为前端存储设备在将已下刷数据下刷至后端存储设备时向后端复制组发送的写请求的日志的日志索引,并且由于日志的提交与应用是逐一进行的,因此如果一个副本的应用索引不小于该日志的日志索引,则可以认为该副本已经将完成已下刷数据的下刷之前前端存储设备每次向后端复制组发送的写请求的日志应用于该副本的状态机,即该副本中包含完成已下刷数据的下刷之前向后端复制组写入的所有数据。因此可以从应用索引不小于最新提交索引的副本中成功读取已下刷数据。同时,由于在前端存储设备在将已下刷数据写入后端复制组数据后,可能将其他数据写入后端复制组,因此后端提交索引往往小于后端复制组当前的提交索引,可见相比于应用索引不小于后端复制组的提交索引的副本,后端复制组中应用索引不小于后端提交索引的副本的数量更多,因此更容易从副本中查找到应用索引不小于后端提交索引的副本,即查找应用索引不小于后端提交索引的副本花费的时间相对较少,因此数据读取效率更高。即选用该实施例,能够提高客户端设备从后端存储设备中读取已下刷数据的效率。
如前述说明,由于已下刷数据是由前端存储设备写入后端复制组,因此前端存储设备能够确定出将已下刷数据写入后端复制组后后端存储组的提交索引。示例性的,在一种可能的实施例中,前端存储设备根据向后端复制组写入数据的次数和顺序,确定已下刷数据对应的后端提交索引。
在另一种可能的实施例中,前端存储设备按照建立的数据与提交索引的对应关系,确定已下刷数据对应的后端提交索引。其中,数据与提交索引间的对应关系通过以下方式建立:
当满足预设下刷条件,前端存储设备将数据写入后端存储设备的后端复制组,获取后端复制组响应于该数据的写入发送的第二写应答请求,第二写应答请求携带有写入该数据后后端复制组的提交索引,前端存储设备建立该数据与第二写应答请求所携带的提交索引之间的对应关系。
选用该实施例,可以通过在下刷数据的过程中建立下刷的数据与提交索引之间的对应关系,从而使得后续前端存储设备更为准确地确定已下刷数据对应的后端提交索引,进而提高客户端设备使用后端提交索引从后端存储设备读取已下刷数据的成功率。
其中,预设下刷条件根据应用场景的不同可以不同,例如,预设下刷条件为前端存储设备中存储的数据的数据量达到前端存储设备总存储容量的120%,又例如,预设下刷条件为距离上次下刷已经经过1个小时。并且每次满足预设下刷条件,前端存储设备可以将所有数据写入后端存储设备的后端复制组,也可以将部分数据写入后端存储设备的后端复制组,若后端存储设备中包括多个后端复制组,则不同数据可以写入相同的后端复制组,也可以写入不同的后端复制组,本公开对此不做任何限制。
对于后端存储设备中包括多个后端复制组的情况,为了区别数据写入的目标后端复制组和其他后端复制组,第二读请求中还携带有目标后端复制组的组标识。
数据与提交索引之间的对应关系可以是通过不同的方式建立的,下面仅以两种可能的方式进行示例性说明:
方式一:前端存储设备中维护有用于记录对应关系的映射表,在该映射表中将第一数据对应的提交索引设置为backend rg_id1,从而建立第一数据与backend rg_id1之间的对应关系。
方式二:前端存储设备将backend rg_id1存储于目标存储块中,从而建立第一数据与backend rg_id1之间的对应关系,目标存储块为前端存储设备中原先用于存储第一数据的数据块。
下面再以已下刷数据为第一数据为例,对前端存储设备按照建立的对应关系确定已下刷数据对应的后端提交索引进行示例性说明:
对于对应关系是以方式一建立的情况,前端存储设备在用于记录对应关系的映射表查找第一数据对应的提交索引,如前述说明,映射表中第一数据对应的提交索引为backend rg_id1,因此前端存储设备确定出backend rg_id1为第一数据对应的后端提交索引。
对于对应关系是以方式二建立的情况,前端存储设备确定原先用于第一数据的目标存储块,并读取目标存储块中存储的提交索引,如前述说明,目标存储块中存储的提交索引为backend rg_id1,因此前端存储设备确定出backend rg_id1为第一数据对应的后端提交索引。
如前述说明,在一些应用场景中,客户端设备不仅需要从后端存储设备中读取已下刷数据,还需要从前端存储设备中读取目标数据中的未下刷数据,基于此,在一种可能的实施例中,第一读请求携带有最新提交索引,前端存储设备还从前端复制组中应用索引不小于最新提交索引的副本中读取未下刷数据,并向客户端设备发送未下刷数据。
选用该实施例,能够有效提高可以提高客户端设备从前端存储设备中读取未下刷数据的效率,从而进一步提高客户端设备从分级存储系统中读取目标数据的效率。
对应于前述应用于客户端设备的数据读方法以及应用于前端存储设备的数据读方法,本公开还提供了一种应用于后端存储设备的数据读方法,如图8所示,包括:
S801,获取客户端发送的携带有后端提交索引的第二读请求。
后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后后端复制组的提交索引,已下刷数据为目标数据中已经被写入后端设备的数据,后端提交索引为前端存储设备响应于第一读请求发送至客户端设备的,第一读请求用于请求目标数据。
S802,从后端复制组中应用索引不小于后端提交索引的副本中读取已下刷数据。
若后端复制组中不存在应用索引不小于后端提交索引的副本,则后端存储设备可以向客户端设备返回用于表示读取失败的信息,也可以结束对于第二读请求的处理。
S803,向客户端设备发送已下刷数据。
选用该实施例,可以使得客户端设备能够利用后端提交索引从后端存储设备读取数据,由于后端提交索引为已下刷数据写入后端存储设备的后端复制组后后端复制组的提交索引,因此,后端提交索引可以视为前端存储设备在将已下刷数据下刷至后端存储设备时向后端复制组发送的写请求的日志的日志索引,并且由于日志的提交与应用是逐一进行的,因此如果一个副本的应用索引不小于该日志的日志索引,则可以认为该副本已经将完成已下刷数据的下刷之前前端存储设备每次向后端复制组发送的写请求的日志应用于该副本的状态机,即该副本中包含完成已下刷数据的下刷之前向后端复制组写入的所有数据。因此可以从应用索引不小于最新提交索引的副本中成功读取已下刷数据。同时,由于在前端存储设备在将已下刷数据写入后端复制组数据后,可能将其他数据写入后端复制组,因此后端提交索引往往小于后端复制组当前的提交索引,可见相比于应用索引不小于后端复制组的提交索引的副本,后端复制组中应用索引不小于后端提交索引的副本的数量更多,因此更容易从副本中查找到应用索引不小于后端提交索引的副本,即查找应用索引不小于后端提交索引的副本花费的时间相对较少,因此数据读取效率更高。即选用该实施例,能够提高客户端设备从后端存储设备中读取已下刷数据的效率。
如前述关于应用于前端存储设备的数据读方法的说明,前端存储设备可以按照预先建立的数据与提交索引的对应关系,确定已下刷数据对应的后端提交索引。为使得前端存储设备能够建立数据与提交索引的对应关系,在一种可能的实施例中,当数据被从前端存储设备写入后端复制组,后端存储设备向前端存储设备发送第二写应答请求,第二写应答请求携带有写入数据后后端复制组的提交索引,第二写应答请求用于驱动前端存储设备建立数据与提交索引之间的对应关系,关于前端存储设备如何根据第二写应答请求建立数据与提交索引之间的对应关系,可以参见前述关于应用于前端存储设备的数据读方法的相关说明,在此不再赘述。
选用该实施例,可以通过在下刷数据的过程中建立下刷的数据与提交索引之间的对应关系,从而使得后续前端存储设备更为准确地确定已下刷数据对应的后端提交索引,进而提高客户端设备使用后端提交索引从后端存储设备读取已下刷数据的成功率
为了更清楚的对本公开提供的数据读方法进行说明,下面将结合客户端设备、前端存储设备以及后端存储设备分别对目标数据的写入、下刷以及读取过程各设备之间的交互进行示例性说明。
为描述方便,假设该示例中前端存储设备中包括两个前端复制组,分别记为前端复制组1和前端复制组2,其中,前端复制组1的组标识为frontend rg_id1,前端复制组2的组标识为为frontend rg_id2,并假设该示例中后端存储设备中包括两个后端复制组,分别记为后端复制组1和后端复制组2,其中,后端复制组1的组标识为backend rg_id1,后端复制组2的组标识为backend rg_id2。
对于目标数据写入的过程,如图9a所示:
假设目标应用将目标数据被写入前端复制组1,则前端存储设备向客户端设备发送第一写应答请求,第一写应答请求中携带有写入目标数据后前端复制组1的提交索引(下文记为提交索引1)以及frontend rg_id1。
响应于第一写应答请求,客户端设备在目标应用对应的专属映射表中将frontendrg_id1对应的提交索引设置为提交索引1,并确定共享映射表中frontend rg_id1对应的提交索引是否大于提交索引1,若共享映射表中frontend rg_id1对应的提交索引大于提交索引1,则不更新共享映射表中frontend rg_id1对应的提交索引,若共享映射表中frontendrg_id1对应的提交索引不大于提交索引1,则将共享映射表中frontend rg_id1对应的提交索引更新为提交索引。
对于目标数据的下刷过程,如图9b所示:
假设目标数据包括第一目标子数据、第二目标子数据以及第三目标子数据,其中,第一目标子数据被下刷至后端复制组1,第二目标子数据被下刷至后端复制组2,第三目标子数据未被下刷至后端存储设备,即该示例中已下刷数据为第一目标子数据和第二目标子数据,未下刷数据为第三目标子数据。
响应于前端存储设备将第一目标子数据下刷至后端复制组1,后端存储设备向前端存储设备发送第二写应答请求(下文记为第二写应答请求1),第二写应答请求1中携带有第一目标子数据写入后端复制组1后后端复制组的提交索引(下文记为提交索引2)以及backend rg_id1。
响应于第二写应答请求1,前端存储设备将提交索引2以及backend rg_id1存储于原先用于存储第一目标子数据的存储块中(下文记为block1)。从而建立提交索引2与第一目标子数据之间的对应关系。
响应于前端存储设备将第二目标子数据下刷至后端复制组2,后端存储设备向前端存储设备发送第二写应答请求(下文记为第二写应答请求2),第二写应答请求2中携带有第二目标子数据写入后端复制组2后后端复制组的提交索引(下文记为提交索引3)以及backend rg_id2。
响应于第二写应答请求2,前端存储设备将提交索引3以及backend rg_id2存储于原先用于存储第二目标子数据的存储块中(下文记为block2)。从而建立提交索引3与第二目标子数据之间的对应关系。
对于读取目标数据的过程,如图9c所示:
目标应用向客户端设备发送用于请求从前端复制组1中读取目标数据的第三读请求。
响应于第三读请求,客户端设备确定从目标应用对应的专属映射表中查找前端复制组1对应的提交索引,作为最新提交索引,即查找frontend rg_id1对应的提交索引,若查找到最新提交索引,则向前端存储设备发送携带最新提交索引的第一读请求。若未查找到最新提交索引,即目标应用对应的专属映射表中不存在对应于frontend rg_id1的提交索引,则从共享映射表中查找前端复制组1对应的提交索引,作为目标提交索引,若查找到目标提交索引,则向前端存储设备发送携带目标提交索引的第四读请求。若未查找到目标提交索引,即共享映射表中不存在在对应于frontend rg_id1的提交索引,则向前端存储设备发送不携带提交索引的第五读请求。
响应于第一读请求,前端存储设备从前端复制组1的、应用索引不小于最新提交索引的副本中读取目标数据。响应于第四读请求,前端存储设备从前端复制组1的、应用索引不小于目标提交索引的副本中读取目标数据。响应于第五读请求,前端存储设备从前端复制组1的主副本中读取目标数据
可以理解的是,由于目标数据中的第一目标子数据和第二目标子数据已经下刷,因此无论从前端复制组的哪个副本中读取目标数据,前端存储设备仅能够读取到第三目标子数据,并确定第一目标子数据和第二目标子数据为已下刷数据。
对于已下刷数据中的第一目标子数据,前端存储设备读取用于存储第一目标子数据的存储块,即block1,如前述说明,block1中存储有提交索引2和backend rg_id1。对于已下刷数据中的第二目标子数据,前端存储设备读取用于存储第二目标子数据的存储块,即block2,如前述说明,block1中存储有提交索引3和backend rg_id2。
前端存储设备向客户端设备发送携带有第三目标子数据、提交索引2、backendrg_id1、提交索引3以及backend rg_id2的读应答请求。
响应于前端存储设备发送的读应答请求,客户端设备检查第三目标子数据是否为完整的目标数据,如果第三目标子数据为完整的目标数据,则客户端设备将目标数据发送至目标应用,如果第三目标子数据不为完整的目标数据,则客户端设备向后端存储设备发送携带有提交索引2、backend rg_id1、提交索引3以及backend rg_id2的第二读请求。
响应于客户端设备发送的第二读请求,后端存储设备从后端复制组1的、应用索引不小于提交索引2的副本中读取已下刷数据,并从后端复制组2的、应用索引不小于提交索引3的副本中读取已下刷数据,如前述说明,后端存储设备能够从后端复制组1中读取第一目标子数据,并从后端复制组2中读取第二目标子数据。
后端复制组将向客户端设备发送携带有第一目标子数据和第二目标子数据的读应答请求。
响应于后端存储设备发送的读应答请求,客户端设备将第一目标子数据、第二目标子数据以及第三目标子数据整合为目标数据,并将整合得到的目标数据发送至目标应用。
对应于前述应用于客户端设备的数据读方法,本公开提供了一种应用于客户端设备的数据读装置,如图10,包括:
第一读请求发送模块1001,用于向前端存储设备发送用于请求目标数据的第一读请求;
第一索引获取模块1002,获取所述前端存储设备响应于所述第一读请求发送的后端提交索引,其中,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为所述目标数据中已经被写入后端存储设备的数据;
第二读请求发送模块1003,用于向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
第一数据获取模块1004,用于获取所述后端存储设备响应于所述第二读请求发送的所述已下刷数据。
在一种可能的实施例中,还包括:
第一读请求获取模块,用于获取目标应用发送的用于请求读取目标数据的第三读请求;
最新提交索引确定模块,用于确定所述前端存储设备的前端复制组对应于所述目标应用的最新提交索引,所述最新提交索引用于表示所述目标应用最后一次在所述前端复制组写入数据后所述前端复制组的提交索引;
所述第一读请求携带有所述最新提交索引,所述第一读请求用于驱动所述前端存储设备从所述前端复制组的、应用索引不小于所述最新提交索引的副本中读取未下刷数据;
第二数据获取模块,用于获取所述前端存储设备响应于所述第一读请求发送的所述未下刷数据。
在一种可能的实施例中,还包括:
专属映射表模块,用于当接收到所述前端存储设备发送的前端复制组针对应用生成的第一写应答请求,在所述应用对应的专属映射表中,将所述前端复制组对应的提交索引更改为所述第一写应答请求所携带的提交索引,所述第一写应答请求为在所述应用在所述前端复制组中写入数据后生成的,并且携带有所述应用在所述前端复制组中写入数据后所述前端复制组的提交索引;
所述最新提交索引模块确定所述前端复制组对应于所述目标应用的最新提交索引,包括:
将所述目标应用对应的专属映射表中所述前端复制组对应的提交索引确定为最新提交索引。
对应于前述应用于后端存储设备的数据读方法,本公开提供了一种应用于后端存储设备的数据读装置,如图11,包括:
第二读请求获取模块1101,用于获取客户端设备发送的用于请求目标数据的第一读请求;
已下刷数据确定模块1102,用于确定所述目标数据中已经被写入后端存储设备的后端复制组的已下刷数据;
后端提交索引确定模块1103,用于确定所述已下刷数据对应的后端提交索引,所述后端提交索引为所述前端存储设备将所述已下刷数据写入所述后端复制组后所述后端复制组的提交索引;
后端提交索引发送模块1104,用于向所述客户端设备发送所述后端提交索引,所述后端提交索引用于驱动所述客户端设备向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据并发送至所述客户端设备。
在一种可能的实施例中,还包括对应关系建立模块,用于当满足预设下刷条件,将数据写入后端存储设备的后端复制组;获取所述后端存储设备响应于所述数据的写入发送的第二写应答请求,所述第二写应答请求携带有写入所述数据后所述后端复制组的提交索引;建立所述数据与所述第二写应答请求所携带的提交索引之间的对应关系。
所述后端提交索引模块确定所述已下刷数据对应的后端提交索引,包括:
按照建立的数据与提交索引的对应关系,确定所述已下刷数据对应的后端提交索引
在一种可能的实施例中,所述第一读请求携带有最新提交索引,所述最新提交索引用于表示所述目标应用最后一次在所述前端存储设备的前端复制组写入数据后所述前端复制组的提交索引;
所述装置还包括未下刷数据发送模块,用于从所述前端复制组中应用索引不小于所述最新提交索引的副本中读取未下刷数据;向所述客户端设备发送所述未下刷数据。
对应于前述应用于前端存储设备的数据读方法,本公开提供了一种应用于前端存储设备的数据读装置,如图12,包括:
第三读请求模块1201,用于获取客户端设备发送的携带有后端提交索引的第二读请求,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为目标数据中已经被写入后端存储设备的数据,所述后端提交索引为前端存储设备响应于第一读请求发送至所述客户端设备的,所述第一读请求用于请求所述目标数据;
已下刷数据获取模块1202,用于从所述后端复制组中应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
已下刷数据发送模块1203,用于向所述客户端设备发送所述已下刷数据。
在一种可能的实施例中,还包括:
写应答模块,用于当数据被从所述前端存储设备写入所述后端复制组,向所述前端存储设备发送第二写应答请求,所述第二写应答请求携带有写入所述数据后所述后端复制组的提交索引;
所述第二写应答请求用于驱动所述前端存储设备建立所述数据与所述第二写应答请求所携带的提交索引之间的对应关系,所述后端提交索引为所述前端存储设备按照已建立的数据与提交索引的对应关系确定得到的。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图13示出了可以用来实施本公开的实施例的示例电子设备1200的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图13所示,设备1300包括计算单元1301,其可以根据存储在只读存储器(ROM)1302中的计算机程序或者从存储单元1308加载到随机访问存储器(RAM)1303中的计算机程序,来执行各种适当的动作和处理。在RAM 1303中,还可存储设备1300操作所需的各种程序和数据。计算单元1301、ROM 1302以及RAM 1303通过总线1304彼此相连。输入/输出(I/O)接口1305也连接至总线1304。
设备1300中的多个部件连接至I/O接口1305,包括:输入单元1306,例如键盘、鼠标等;输出单元1307,例如各种类型的显示器、扬声器等;存储单元1308,例如磁盘、光盘等;以及通信单元1309,例如网卡、调制解调器、无线通信收发机等。通信单元1309允许设备1300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1301可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1301的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1301执行上文所描述的各个方法和处理,例如数据读方法。例如,在一些实施例中,数据读方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1302和/或通信单元1309而被载入和/或安装到设备1300上。当计算机程序加载到RAM 1303并由计算单元1301执行时,可以执行上文描述的数据读方法的一个或多个步骤。备选地,在其他实施例中,计算单元1301可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据读方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (19)

1.一种数据读方法,应用于客户端设备,包括:
向前端存储设备发送用于请求目标数据的第一读请求;
获取所述前端存储设备响应于所述第一读请求发送的后端提交索引,其中,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为所述目标数据中已经被写入后端存储设备的数据;
向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
获取所述后端存储设备响应于所述第二读请求发送的所述已下刷数据。
2.根据权利要求1所述的方法,还包括:
获取目标应用发送的用于请求读取目标数据的第三读请求;
确定所述前端存储设备的前端复制组对应于所述目标应用的最新提交索引,所述最新提交索引用于表示所述目标应用最后一次在所述前端复制组写入数据后所述前端复制组的提交索引;
所述第一读请求携带有所述最新提交索引,所述第一读请求用于驱动所述前端存储设备从所述前端复制组的、应用索引不小于所述最新提交索引的副本中读取未下刷数据;
所述方法还包括:
获取所述前端存储设备响应于所述第一读请求发送的所述未下刷数据。
3.根据权利要求2所述的方法,还包括:
当接收到所述前端存储设备发送的前端复制组针对应用生成的第一写应答请求,在所述应用对应的专属映射表中,将所述前端复制组对应的提交索引更改为所述第一写应答请求所携带的提交索引,所述第一写应答请求为在所述应用在所述前端复制组中写入数据后生成的,并且携带有所述应用在所述前端复制组中写入数据后所述前端复制组的提交索引;
所述确定所述前端复制组对应于所述目标应用的最新提交索引,包括:
将所述目标应用对应的专属映射表中所述前端复制组对应的提交索引确定为最新提交索引。
4.一种数据读方法,应用于前端存储设备,包括:
获取客户端设备发送的用于请求目标数据的第一读请求;
确定所述目标数据中已经被写入后端存储设备的后端复制组的已下刷数据;
确定所述已下刷数据对应的后端提交索引,所述后端提交索引为所述前端存储设备将所述已下刷数据写入所述后端复制组后所述后端复制组的提交索引;
向所述客户端设备发送所述后端提交索引,所述后端提交索引用于驱动所述客户端设备向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据并发送至所述客户端设备。
5.根据权利要求4所述的方法,还包括:
当满足预设下刷条件,将数据写入后端存储设备的后端复制组;
获取所述后端存储设备响应于所述数据的写入发送的第二写应答请求,所述第二写应答请求携带有写入所述数据后所述后端复制组的提交索引;
建立所述数据与所述第二写应答请求所携带的提交索引之间的对应关系;
所述确定所述已下刷数据对应的后端提交索引,包括:
按照建立的数据与提交索引的对应关系,确定所述已下刷数据对应的后端提交索引。
6.根据权利要求4所述的方法,其中,所述第一读请求携带有最新提交索引,所述最新提交索引用于表示所述目标应用最后一次在所述前端存储设备的前端复制组写入数据后所述前端复制组的提交索引;
所述方法还包括:
从所述前端复制组中应用索引不小于所述最新提交索引的副本中读取未下刷数据;
向所述客户端设备发送所述未下刷数据。
7.一种数据读方法,应用于后端存储设备,包括:
获取客户端设备发送的携带有后端提交索引的第二读请求,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为目标数据中已经被写入后端存储设备的数据,所述后端提交索引为前端存储设备响应于第一读请求发送至所述客户端设备的,所述第一读请求用于请求所述目标数据;
从所述后端复制组中应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
向所述客户端设备发送所述已下刷数据。
8.根据权利要求7所述的方法,还包括:
当数据被从所述前端存储设备写入所述后端复制组,向所述前端存储设备发送第二写应答请求,所述第二写应答请求携带有写入所述数据后所述后端复制组的提交索引;
所述第二写应答请求用于驱动所述前端存储设备建立所述数据与所述第二写应答请求所携带的提交索引之间的对应关系,所述后端提交索引为所述前端存储设备按照已建立的数据与提交索引的对应关系确定得到的。
9.一种数据读装置,应用于客户端设备,包括:
第一读请求发送模块,用于向前端存储设备发送用于请求目标数据的第一读请求;
第一索引获取模块,获取所述前端存储设备响应于所述第一读请求发送的后端提交索引,其中,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为所述目标数据中已经被写入后端存储设备的数据;
第二读请求发送模块,用于向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
第一数据获取模块,用于获取所述后端存储设备响应于所述第二读请求发送的所述已下刷数据。
10.根据权利要求9所述的装置,还包括:
第一读请求获取模块,用于获取目标应用发送的用于请求读取目标数据的第三读请求;
最新提交索引确定模块,用于确定所述前端存储设备的前端复制组对应于所述目标应用的最新提交索引,所述最新提交索引用于表示所述目标应用最后一次在所述前端复制组写入数据后所述前端复制组的提交索引;
所述第一读请求携带有所述最新提交索引,所述第一读请求用于驱动所述前端存储设备从所述前端复制组的、应用索引不小于所述最新提交索引的副本中读取未下刷数据;
第二数据获取模块,用于获取所述前端存储设备响应于所述第一读请求发送的所述未下刷数据。
11.根据权利要求10所述的装置,还包括:
专属映射表模块,用于当接收到所述前端存储设备发送的前端复制组针对应用生成的第一写应答请求,在所述应用对应的专属映射表中,将所述前端复制组对应的提交索引更改为所述第一写应答请求所携带的提交索引,所述第一写应答请求为在所述应用在所述前端复制组中写入数据后生成的,并且携带有所述应用在所述前端复制组中写入数据后所述前端复制组的提交索引;
所述最新提交索引模块确定所述前端复制组对应于所述目标应用的最新提交索引,包括:
将所述目标应用对应的专属映射表中所述前端复制组对应的提交索引确定为最新提交索引。
12.一种数据读装置,应用于前端存储设备,包括:
第二读请求获取模块,用于获取客户端设备发送的用于请求目标数据的第一读请求;
已下刷数据确定模块,用于确定所述目标数据中已经被写入后端存储设备的后端复制组的已下刷数据;
后端提交索引确定模块,用于确定所述已下刷数据对应的后端提交索引,所述后端提交索引为所述前端存储设备将所述已下刷数据写入所述后端复制组后所述后端复制组的提交索引;
后端提交索引发送模块,用于向所述客户端设备发送所述后端提交索引,所述后端提交索引用于驱动所述客户端设备向所述后端存储设备发送携带有所述后端提交索引的第二读请求,所述第二读请求用于驱动所述后端存储设备从所述后端复制组的、应用索引不小于所述后端提交索引的副本中读取所述已下刷数据并发送至所述客户端设备。
13.根据权利要求12所述的装置,还包括对应关系建立模块,用于当满足预设下刷条件,将数据写入后端存储设备的后端复制组;获取所述后端存储设备响应于所述数据的写入发送的第二写应答请求,所述第二写应答请求携带有写入所述数据后所述后端复制组的提交索引;建立所述数据与所述第二写应答请求所携带的提交索引之间的对应关系;
所述后端提交索引模块确定所述已下刷数据对应的后端提交索引,包括:
按照建立的数据与提交索引的对应关系,确定所述已下刷数据对应的后端提交索引。
14.根据权利要求12所述的装置,其中,所述第一读请求携带有最新提交索引,所述最新提交索引用于表示所述目标应用最后一次在所述前端存储设备的前端复制组写入数据后所述前端复制组的提交索引;
所述装置还包括未下刷数据发送模块,用于从所述前端复制组中应用索引不小于所述最新提交索引的副本中读取未下刷数据;向所述客户端设备发送所述未下刷数据。
15.一种数据读装置,应用于后端存储设备,包括:
第三读请求模块,用于获取客户端设备发送的携带有后端提交索引的第二读请求,所述后端提交索引用于表示已下刷数据被写入后端存储设备的后端复制组后所述后端复制组的提交索引,所述已下刷数据为目标数据中已经被写入后端存储设备的数据,所述后端提交索引为前端存储设备响应于第一读请求发送至所述客户端设备的,所述第一读请求用于请求所述目标数据;
已下刷数据获取模块,用于从所述后端复制组中应用索引不小于所述后端提交索引的副本中读取所述已下刷数据;
已下刷数据发送模块,用于向所述客户端设备发送所述已下刷数据。
16.根据权利要求15所述的装置,还包括:
写应答模块,用于当数据被从所述前端存储设备写入所述后端复制组,向所述前端存储设备发送第二写应答请求,所述第二写应答请求携带有写入所述数据后所述后端复制组的提交索引;
所述第二写应答请求用于驱动所述前端存储设备建立所述数据与所述第二写应答请求所携带的提交索引之间的对应关系,所述后端提交索引为所述前端存储设备按照已建立的数据与提交索引的对应关系确定得到的。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3或4-6或7-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-3或4-6或7-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-3或4-6或7-8中任一项所述的方法。
CN202210138327.XA 2022-02-15 2022-02-15 一种数据读方法、装置、设备以及存储介质 Active CN114442962B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210138327.XA CN114442962B (zh) 2022-02-15 2022-02-15 一种数据读方法、装置、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210138327.XA CN114442962B (zh) 2022-02-15 2022-02-15 一种数据读方法、装置、设备以及存储介质

Publications (2)

Publication Number Publication Date
CN114442962A true CN114442962A (zh) 2022-05-06
CN114442962B CN114442962B (zh) 2024-07-02

Family

ID=81374282

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210138327.XA Active CN114442962B (zh) 2022-02-15 2022-02-15 一种数据读方法、装置、设备以及存储介质

Country Status (1)

Country Link
CN (1) CN114442962B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100011037A1 (en) * 2008-07-11 2010-01-14 Arriad, Inc. Media aware distributed data layout
US8676851B1 (en) * 2012-08-30 2014-03-18 Google Inc. Executing transactions in distributed storage systems
CN110389710A (zh) * 2018-04-20 2019-10-29 华为技术有限公司 分配存储资源的方法和装置
US10747739B1 (en) * 2015-09-18 2020-08-18 Amazon Technologies, Inc. Implicit checkpoint for generating a secondary index of a table
CN111886582A (zh) * 2019-09-12 2020-11-03 创新先进技术有限公司 日志结构存储系统
CN113051244A (zh) * 2021-03-22 2021-06-29 北京百度网讯科技有限公司 数据访问方法和装置、数据获取方法和装置
CN113656501A (zh) * 2021-08-18 2021-11-16 北京百度网讯科技有限公司 一种数据读取方法、装置、设备以及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100011037A1 (en) * 2008-07-11 2010-01-14 Arriad, Inc. Media aware distributed data layout
US8676851B1 (en) * 2012-08-30 2014-03-18 Google Inc. Executing transactions in distributed storage systems
US10747739B1 (en) * 2015-09-18 2020-08-18 Amazon Technologies, Inc. Implicit checkpoint for generating a secondary index of a table
CN110389710A (zh) * 2018-04-20 2019-10-29 华为技术有限公司 分配存储资源的方法和装置
CN111886582A (zh) * 2019-09-12 2020-11-03 创新先进技术有限公司 日志结构存储系统
CN113051244A (zh) * 2021-03-22 2021-06-29 北京百度网讯科技有限公司 数据访问方法和装置、数据获取方法和装置
CN113656501A (zh) * 2021-08-18 2021-11-16 北京百度网讯科技有限公司 一种数据读取方法、装置、设备以及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
翁海星;宫学庆;朱燕超;胡华梁;: "集群环境下分布式索引的实现", 计算机应用, no. 01, 10 January 2016 (2016-01-10) *

Also Published As

Publication number Publication date
CN114442962B (zh) 2024-07-02

Similar Documents

Publication Publication Date Title
CN113656501B (zh) 一种数据读取方法、装置、设备以及存储介质
CN109445687B (zh) 一种数据存储方法以及协议服务器
CN113364877B (zh) 数据处理方法、装置、电子设备和介质
CN111177143B (zh) 键值数据存储方法、装置、存储介质与电子设备
US11947842B2 (en) Method for writing data in append mode, device and storage medium
US11386078B2 (en) Distributed trust data storage system
CN113590019B (zh) 用于存储管理的方法、电子设备和计算机程序产品
CN112015591A (zh) 一种日志管理方法、服务器和数据库系统
CN110121712B (zh) 一种日志管理方法、服务器和数据库系统
CN112764662B (zh) 用于存储管理的方法、设备和计算机程序产品
CN116501264B (zh) 一种数据存储方法、装置、系统、设备及可读存储介质
WO2024087426A1 (zh) 一种全量快照快速生成方法、装置、电子设备及存储介质
CN111104047B (zh) 管理冗余磁盘阵列的方法、设备和计算机可读存储介质
CN114442962B (zh) 一种数据读方法、装置、设备以及存储介质
CN114518848B (zh) 存储数据的处理方法、装置、设备和介质
CN116540938A (zh) 数据读取方法、装置、分布式存储系统、设备和存储介质
CN116303789A (zh) 多分片多副本数据库并行同步方法、装置及可读介质
CN116049306A (zh) 数据同步方法、装置、电子设备以及可读存储介质
CN111522883B (zh) 对象数据的备份方法、装置、设备及存储介质
CN114327293B (zh) 一种数据读方法、装置、设备以及存储介质
CN109542674A (zh) 分布式系统的快照生成方法、装置、设备和介质
CN113392152B (zh) 用于更新信息的方法、电子设备和计算机程序产品
CN114528258B (zh) 文件异步处理方法、装置、服务器、介质、产品及系统
CN114745438B (zh) 多数据中心的缓存数据处理方法、装置、系统和电子设备
US20230333929A1 (en) Method, electronic device, and computer program product for accessing data of raid

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant