WO2019127018A1 - 存储系统访问方法及装置 - Google Patents

存储系统访问方法及装置 Download PDF

Info

Publication number
WO2019127018A1
WO2019127018A1 PCT/CN2017/118645 CN2017118645W WO2019127018A1 WO 2019127018 A1 WO2019127018 A1 WO 2019127018A1 CN 2017118645 W CN2017118645 W CN 2017118645W WO 2019127018 A1 WO2019127018 A1 WO 2019127018A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage
address
storage device
storage node
client
Prior art date
Application number
PCT/CN2017/118645
Other languages
English (en)
French (fr)
Inventor
罗旦
张巍
邹蛟同
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to PCT/CN2017/118645 priority Critical patent/WO2019127018A1/zh
Priority to EP17898345.8A priority patent/EP3525080A4/en
Priority to CN201780002685.5A priority patent/CN110235098B/zh
Publication of WO2019127018A1 publication Critical patent/WO2019127018A1/zh
Priority to US16/880,003 priority patent/US11436157B2/en
Priority to US17/877,190 priority patent/US20220382685A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/10Address translation
    • G06F12/1081Address translation for peripheral access to main memory, e.g. direct memory access [DMA]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • G06F12/0817Cache consistency protocols using directory methods
    • G06F12/0822Copy directories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/14Details of searching files based on file metadata
    • G06F16/144Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/14Details of searching files based on file metadata
    • G06F16/156Query results presentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • G06F16/1824Distributed file systems implemented using Network-attached Storage [NAS] architecture
    • G06F16/1827Management specifically adapted to NAS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0688Non-volatile semiconductor memory arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/26Using a specific storage system architecture
    • G06F2212/261Storage comprising a plurality of storage devices
    • G06F2212/262Storage comprising a plurality of storage devices configured as RAID
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7201Logical to physical mapping or translation of blocks or pages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]

Abstract

本方案公开了一种存储系统访问方法,客户端根据获取访问请求指向的NVMe存储设备的队列的起始地址以及访问请求指向的NVMe存储设备的逻辑地址,向NVMe存储设备所在的存储节点发送远程直接内存访问命令,从而充分发挥了NVMe存储设备的性能,提高了存储系统的写性能。

Description

存储系统访问方法及装置 技术领域
本发明涉及信息技术领域,尤其涉及一种存储系统访问方法及装置。
背景技术
随着非易失性内存高速(Non-volatile Memory Express,NVMe)接口规范的发展,支持NVMe接口规范的存储设备(以下简称为NVMe存储设备)应用于分布式存储系统中。分布式存储系统中,通常包含多个存储节点,每一个存储节点包含一个或多个支持NVMe接口规范的存储设备。客户端访问分布式存储系统中的存储设备。首先客户端需要确定处理访问请求的存储节点,与存储节点建立通信,存储节点接收访问请求,存储节点的中央处理单元(Central Processing Unit,CPU)解析访问请求得到访问命令,将访问请求中的地址转化为NVMe存储设备的存储地址,确定访问请求对应的NVMe存储设备,将NVMe存储设备的存储地址和访问命令发送给对应的NVMe存储设备,上述操作过程与访问传统的非NVMe接口规范的存储设备流程相同,无法充分利用NVMe存储设备的性能。
发明内容
本申请提供了一种存储系统访问方法及装置。
本申请的第一方面提供了存储系统访问方法,存储系统包含第一存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;客户端接收写请求,写请求包含存储地址;客户端查询存储地址的映射关系,存储地址的映射关系包含存储地址映射到第一存储节点的第一存储设备的第一逻辑地址;客户端获取第一存储设备的队列的起始地址所在的第一内存地址;客户端向第一存储节点发送第一远程直接内存访问写请求;第一远程直接内存访问写请求包含第一内存地址和第一逻辑地址。客户端获得NVMe存储设备队列的信息,从而可以直接访问存储节点的NVMe存储设备,不需要存储节点CPU的参与处理客户端发送的写请求,充分发挥了NVMe存储设备的性能,提高了存储系统的写性能。进一步的,第一远程直接内存访问写请求还包含写入第一逻辑地址的数据。
结合本申请第一方面,在第一种可能实现方式中,存储系统还包括管理服务器,管理服务器存储有第一存储节点的标识与第一内存地址的映射关系;客户端获取所述第一内存地址,具体包括:客户端向管理服务器发送第一查询请求;第一队列查询请求包含第一存储节点的标识;客户端接收来自管理服务器的第一查询请求响应,第一查询请求响应包含所述第一内存地址。客户端从管理服务器获得第一内存地址,减少了与存储节点的交互。
结合本申请第一方面,在第二种可能实现方式中,客户端获取所述第一内存地址,具体包括:客户端向第一存储节点发送第二查询请求;第二查询请求包含第一存储设备的标识;客户端接收来自第一存储节点的第二查询请求响
应;第二查询请求响应包含第一内存地址。
结合本申请第一方面或第一方面的第一或第二种可能的实现方式,在第三种可能实现方式中,存储系统还包括第二存储节点,第二存储节点包含存储级内存的第二设备,存储地址的映射关系包含存储地址映射到第二存储设备的第一基地址;客户端向第二存储节点发送第二远程直接内存访问写请求;第二远程直接内存访问写请求包含第一基地址。进一步的,第二远程直接内存访问写请求还包含写入第一基地址的数据。
结合本申请第一方面的第三种可能的实现方式,在第四种可能的实现方式中,第一存储设备和第二存储设备属于一个分条关系;进一步的,分条关系为纠删码分条关系或多副本分条关系。
结合本申请第一方面或第一方面的第一至第二种任一可能的实现方式,在第五种可能的实现方式中,存储系统还包括第三存储节点,第三存储节点包含第三存储设备,存储地址的映射关系包含存储地址映射到第三存储设备的第三逻辑地址;其中,第三存储设备为机械硬盘;客户端向第三存储节点发送第三写请求;第三写请求包含所述第三逻辑地址。进一步的,第一存储设备和第三存储设备属于一个分条关系;分条关系为纠删码分条关系或多副本分条关系。
结合本申请第一方面或第一方面的第一至第二种任一可能的实现方式,在第六种可能的实现方式中,存储系统包含第四存储节点,第四存储节点包含NVMe接口规范的第四存储设备,第四存储设备的队列的起始地址位于第四存储节点的第三内存中的第三内存地址;存储地址的映射关系包含存储地址映射到第四存储设备的第四逻辑地址;客户端获取第四存储设备的队列的起始地址所在的第三内存地址;客户端向第四存储节点发送第四远程直接内存访问写请求;第四远程直接内存访问写请求包含第三内存地址和第四逻辑地址。进一步的,第四远程直接内存访问写请求还包含写入第四逻辑地址的数据。
本申请的第二方面提供了存储系统访问方法,存储系统包含存储节点,存储节点包含NVMe接口规范的存储设备,存储设备的队列的起始地址位于存储节点的内存中的内存地址,存储节点的接口卡接收来自客户端的远程直接内存访问写请求,远程直接内存访问写请求包含内存地址、存储设备的逻辑地址和数据;其中数据为客户端接收写请求中包含的写入逻辑地址的数据,写请求包含存储地址,存储地址映射到存储设备的逻辑地址;接口卡将存储设备的逻辑地址和数据发送到内存地址。存储节点的接口卡将来自客户端的远程直接内存访问请求直接发送到队列的队列的起始地址,不需要存储节点的CPU参与,充分发挥了NVMe存储设备的性能,提高了存储系统的写性能。
结合本申请第二方面,在第一种可能实现方式中,接口卡接收来自客户端的查询请求,所查询请求包含存储节点的标识;接口卡向客户端发送查询请求响应,查询请求响应包含内存地址。
本申请第三方面还提供了一种客户端,应用于本申请第一方面或第一方面的第一至六任一种可能的实现方式中的存储系统,客户端包含多个单元,用于执行本申请第一方面或第一方面的第一至六任一种可能的实现方式。
本申请第四方面还提供了一种存储节点,应用于本申请第二方面或第二方面的第一可能的实现方式中的存储系统,用于执行本申请第一方面或第二方面的第一可能的实现方式。
本申请第五方面还提供了一种客户端,应用于本申请第一方面或第一方面的第一至六任一种可能的实现方式中的存储系统,管理服务器包含处理器和接口,处理器与接口通信,处理器用于执行本申请第一方面或第一方面的第一至六任一种可能的实现方式。
相应地,本申请第六方面还提供了计算机可读存储介质和计算机程序产品,计算机可读存储介质和计算机程序产品中包含计算机指令用于实现本申请第一方面各方案。
相应地,本申请第七方面还提供了计算机可读存储介质和计算机程序产品,计算机可读存储介质和计算机程序产品中包含计算机指令用于实现本申请第二方面各方案。
相应的,本申请和八方面还提供了一种存储系统,包含第一方面各实现方案中的客户端和第二方面的各种实现方式中的存储节点。进一步的,存储系统还包含管理服务器。
附图说明
图1为本发明实施例分布式块存储系统示意图;
图2为本发明实施例存储节点结构示意图;
图3为本发明实施例分区视图;
图4为本发明实施例分区视图;
图5为本发明实施例NVMe存储设备示意图;
图6为本发明实施例存储节点中NVMe队列示意图;
图7为本发明实施例存储节点发送队列信息流程图;
图8为本发明实施例管理服务器存储NVMe存储设备队列信息示意图;
图9为本发明实施例管理服务器与存储节点通信示意图;
图10为本发明实施例管理服务器存储NVMe存储设备队列信息示意图;
图11为本发明实施例管理服务器存储NVMe存储设备队列信息示意图;
图12为本发明实施例存储节点存储NVMe存储设备队列信息示意图;
图13为本发明实施例访问请求处理流程示意图;
图14为本发明实施例分布式块存储系统示意图;
图15为本发明实施例客户端向存储级内存设备发送RDMA写请求示意图;
图16为本发明实施例存储节点结构示意图;
图17为本发明实施例客户端结构示意图;
图18为本发明实施例管理服务器结构示意图;
图19为本发明实施例管理服务器结构示意图;
图20为本发明实施例客户端结构示意图;
图21为本发明实施例客户端结构示意图。
本发明实施例
本发明实施例中的存储系统可以应用到存储阵列(如华为
Figure PCTCN2017118645-appb-000001
的Oceanstor
Figure PCTCN2017118645-appb-000002
18000系列,
Figure PCTCN2017118645-appb-000003
V3系列),分布式文件存储系统(如华为
Figure PCTCN2017118645-appb-000004
Figure PCTCN2017118645-appb-000005
9000系列),分布式块存储系统(如华为
Figure PCTCN2017118645-appb-000006
Figure PCTCN2017118645-appb-000007
系列)、分布式对象存储系统或支持日志结构(Log-Structure)接口的分布式存储系统等。
如图1所示,本发明实施例中的分布式块存储系统,如华为
Figure PCTCN2017118645-appb-000008
Figure PCTCN2017118645-appb-000009
系列。分布式块存储系统包括多个存储节点,如存储节点1、存储节点2、存储节点3、存储节点4、存储节点5和存储节点6,存储节点间通过InfiniBand或以太网络等互相通信。在实际应用当中,分布式块存储系统中存储节点的数量可以根据实际需求增加,本发明实施例对此不作限定。每一个存储节点包含一个或多个NVMe存储设备,例如NVMe接口规范的固态硬盘(Solid State Disk,SSD)。本发明实施例中NVMe存储设备不限于SSD。本发明实施例中存储节点包含NVMe存储设备具体可能为存储节点内部包含NVMe存储设备,NVMe存储设备也可以是以硬盘簇(Just a Bunch Of Disks,JBOD)的形式外置于存储节点。
存储节点包含如图2所示的结构。如图2所示,存储节点包含中央处理单元(Central Processing Unit,CPU)201、内存202、接口卡203。内存202中存储计算机指令,CPU201执行内存202中的程序指令执行相应的操作。接卡口303可以为网络接口卡(Network Interface Card,NIC)、Infiniband协议接口卡等。另外,为节省CPU201的计算资源,现场可编程门阵列(Field Programmable Gate Array,FPGA)或其他硬件也可以代替CPU301执行上述相应的操作,或者,FPGA或其他硬件与CPU201共同执行上述相应的操作。为方便描述,本发明实施例将CPU201与内存202、FPGA及其他替代CPU201的硬件或FPGA及其他替代CPU201的硬件与CPU201的组合统称为处理器。
在图2所示的结构中,客户端可以是独立于图2所示的设备,例如服务器、移动设备等,也可以是虚拟机(Virtual Machine,VM)。客户端运行应用程序,其中,应用程序可以为VM或容器,也可以为某一个特定应用,如办公软件等。客户端向分布式块存储系统写入数据或从分布式块设备存储中读取数据。客户端的结构可参考图2及相关描述。
存储节点的内存202中加载分布式块存储系统程序,CPU201执行内存202中的分布式块存储系统程序,向客户端提供块协议访问接口,为客户端提供分布式块存储接入点服务,使客户端访问分布式块存储系统中存储资源池中的存储资源。通常,该块协议访问接口用于向客户端提供逻辑单元。示例性的,分布式块存储系统初始化时,将哈希空间(如0~2^32,)划分为N等份,每1等份是1个分区(Partition),这N等份按照硬盘数量进行均分。例如,分布式块存储系统中N默认为3600,即分区分别为P1,P2,P3…P3600。假设当前分布式块存储系统有18块NVMe存储设备,则每块NVMe存储设备承载200个分区。分区P包含分别分布在M个存储节点上的共M个NVMe存储设备,分区中M个NVMe存储设备构成分条关系。分条关系可以为多副本或纠删码(Erasure Coding,EC)。分区与NVMe存储设备对应关系,即 分区与分区包含的NVMe存储设备的映射关系,也称为分区视图,如图3所示,以分区包含4个NVMe存储设备为例,分区视图为“P2-(存储节点N 1-NVMe存储设备1)-(存储节点N 2-NVMe存储设备2)-(存储节点N 3-NVMe存储设备3)-(存储节点N 4-NVMe存储设备4)”。即NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成分条关系。当每个存储节点只包含一个NVMe存储设备,图3所示的分区视图也可以表示为P2-存储节点N 1-存储节点N 2-存储节点N 3-存储节点N 4。通常分区的划分和分区视图的分配由管理服务器实现。管理服务器会在分布式块存储系统初始化时分配好分区视图,后续会随着分布式块存储系统中NVMe存储设备数量的变化进行调整。其中,管理服务器的结构可参考图2所示的结构。为方便客户端访问,减少管理服务器访问压力,其中一种实现,管理服务器会将分区视图发送给客户端。
分布式块存储系统为客户端提供卷作为存储资源。具体实现,分布式块存储系统将NVMe存储设备的逻辑地址划分资源池,为客户端提供数据访问,客户端接收的访问请求中的存储地址映射到NVMe存储设备的逻辑地址,即客户端访问请求中的存储地址所在的数据块映射到NVMe存储设备提供的逻辑地址。客户端访问卷的访问请求,如写请求,写请求携带存储地址和数据。在分布式块存储系统中,存储地址为逻辑块地址(Logical Block Address,LBA)。根据写请求中的存储地址确定写请求对应的数据块。客户端根据数据块查询管理服务器中的分区视图或客户端本地保存的分区视图,确定为数据块分配存储空间的NVMe存储设备。例如,假设数据块大小为1024字节,卷中数据块编号从0开始。写请求包含的存储地址为写起始地址为1032字节,大小为64字节,写请求位于编号为1的数据块中(1032/1024),数据块为内偏移为8(1032%1024)。
例如,如图3所示,第1个数据块分布在分区P2,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成分条关系为多副本关系。客户端查询分区视图,确定写请求包含的存储地址映射到NVMe设备的逻辑地址,例如,存储地址映射到NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4的逻辑地址分别为L1、L2、L3和L4。具体实现,客户端根据分区视图查询分区视图中的主存储节点,如存储节点N1,存储节点N1向客户端提供L1、L2、L3和L4。客户端确定提供逻辑地址的NVMe存储设备,获得NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4的队列的起始地址在内存中的内存地址(以下简称队列的起始地址),客户端获得NVMe存储设备的队列的起始地址在内存中的内存地址的具体实现请见下面描述。客户端分别向NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4发送RDMA写请求。其中,客户端向NVMe存储设备1发送的RDMA写请求中包含逻辑地址L1和NVMe存储设备1的队列的起始地址,还包含客户端接收的写请求中写入L1的数据;客户端向NVMe存储设备2发送的RDMA写请求中包含逻辑地址L2和NVMe存储设备2 的队列的起始地址,还包含客户端接收的写请求中写入L2的数据;客户端向NVMe存储设备3发送的RDMA写请求中包含逻辑地址L3和NVMe存储设备3的队列的起始地址,还包含客户端接收的写请求中写入L3的数据;客户端向NVMe存储设备4发送的RDMA写请求中包含逻辑地址L4和NVMe存储设备4的队列的起始地址,还包含客户端接收的写请求中写入L4的数据。具体实现,客户端分别向NVMe存储设备1所在的存储节点1的接口卡、NVMe存储设备2所在的存储节点2的接口卡、NVMe存储设备3所在的存储节点3的接口卡和NVMe存储设备4所在的存储节点4的接口卡发送RDMA写请求。
另一种实现,如图4所示,分区视图为P2-(存储节点N1-NVMe存储设备1)-(存储节点N2-NVMe存储设备2)-(存储节点N3-NVMe存储设备3)-(存储节点N4-NVMe存储设备4)-(存储节点N5-NVMe存储设备5)-(存储节点N6-NVMe存储设备6)。第1个数据块分布在分区P2,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3、NVMe存储设备4、NVMe存储设备5和NVMe存储设备6构成EC关系,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4为存储数据分片的存储设备,NVMe存储设备5和NVMe存储设备6为存储校验分片的存储设备。EC分条的长度为12千字节(Kilobyte,KB),则数据分片和校验分片的长度均为2KB。例如,第1个分条中,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4分别存储存储地址为0~2KB-1,2KB~4KB-1,4KB~6KB-1,6KB~8KB-1的数据分片,NVMe存储设备5和NVMe存储设备6分别存储第1分条的校验分片。在该分区的第2个分条中,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4分别存储存储地址为8KB~10KB-1,10KB~12KB-1,12KB~14KB-1,14KB~16KB-1的数据分片,NVMe存储设备5和NVMe存储设备6分别存储第2分条的校验分片。例如,客户端接收写请求,写请求中包含的存储地址SA为0~8KB-1。客户端查询分区视图,确定存储地址为0~2KB-1的第1数据分片对应的NVMe存储设备1的逻辑地址为L1,确定存储地址为2KB~4KB-1的第2数据分片对应的NVMe存储设备2的逻辑地址为L2,确定存储地址为4KB~6KB-1的第3数据分片对应的NVMe存储设备3的逻辑地址为L3,确定存储地址为6KB~8KB-1的第4数据分片对应的NVMe存储设备4的逻辑地址为L4,确定第1分条的第1校验分片对应的NVMe存储设备5的逻辑地址为L5,确定第1分条的第2校验分片对应的NVMe存储设备6的逻辑地址为L6。客户端查询分区视图的具体实现可以参见本发明实施例前面的描述,在此不再赘述。本发明实施例中,存储地址SA分别映射到L1、L2、L3、L4、L5和L6。客户端确定提供逻辑地址的NVMe设备,客户端获得NVMe存储设备1、NVMe存储设备2、NVMe存储设备3、NVMe存储设备4、NVMe存储设备5和NVMe存储设备6的队列的起始地址,客户端获得NVMe存储设备的队列的起始地址的具体实现请见下面描述。客户端分别向NVMe存储设备1、NVMe存储设备2、NVMe存储设备3、NVMe存储设备4、NVMe存储设备5和NVMe存储设备6发送RDMA请求。其中,客户端向NVMe存储设备1发送的RDMA写 请求中包含逻辑地址L1和NVMe存储设备1的队列的起始地址,还包含客户端接收的写请求中写入L1的第1数据分片;客户端向NVMe存储设备2发送的RDMA写请求中包含逻辑地址L2和NVMe存储设备2的队列的起始地址,还包含客户端接收的写请求中写入L2的第2数据分片;客户端向NVMe存储设备3发送的RDMA写请求中包含逻辑地址L3和NVMe存储设备3的队列的起始地址,还包含客户端接收的写请求中写入L3的第3数据分片;客户端向NVMe存储设备4发送的RDMA写请求中包含逻辑地址L4和NVMe存储设备4的队列的起始地址,还包含客户端接收的写请求中写入L4的第4数据分片;客户端向NVMe存储设备5发送的RDMA写请求中包含逻辑地址L5和NVMe存储设备5的队列的起始地址,还包含第1校验分片;客户端向NVMe存储设备6发送的RDMA写请求中包含逻辑地址L6和NVMe存储设备6的队列的起始地址,还包含第2校验分片。
在上述实现方式中,客户端使用RDMA写请求将数据直接写入NVMe存储设备在存储节点的内存中队列的起始地址,不需要存储节点CPU的参与处理客户端发送的写请求,充分发挥了NVMe存储设备的性能,提高了存储系统的写性能。
另一种实现,分布式块存储系统为客户端提供卷作为存储资源。具体实现,分布式块存储系统将NVMe存储设备的逻辑地址划分资源池,为客户端提供数据访问,即客户端访问请求中的存储地址所在的数据块映射到NVMe存储设备提供的逻辑地址,不需要分区视图。数据块与NVMe存储设备提供的逻辑地址的映射可以表示为数据块-----NVMe存储设备----逻辑地址。
为进一步描述本发明实施例,如图5所示,NVMe存储设备包含NVMe控制器501和存储介质502。NVMe规范中定义了三个关键组件用于访问请求和数据的处理:提交队列(Submission Queue,SQ)、完成队列(Completion Queue,CQ)和门铃寄存器(Doorbell Register,DB)。SQ用于存储客户端发送的访问请求,CQ用于存储NVMe存储设备处理访问请求的结果。SQ和CQ以队列对的形式存在。如图6所示,SQ和CQ位于存储节点的内存202中,本发明实施例称一对SQ和CQ为队列。NVMe存储设备用于处理访问请求的队列的数量最大可以达到65535个。SQ和CQ都是环形队列,NVMe控制器从SQ队列的头获取待处理的访问请求,SQ尾用于存储客户端最新发送的访问请求。客户端从CQ的头获取访问结果,CQ队列的尾用于存储NVMe控制器最新处理访问请求的结果。客户端使用RDMA请求访问NVMe存储设备,需要获取NVMe存储设备的SQ和CQ队列的尾,也就是SQ和CQ的起始地址分别在内存202中的内存地址。在NVM控制器中有寄存器,用于记录SQ和CQ的头尾位置,每个SQ或CQ,都有两个对应的寄存器,即头寄存器和尾寄存器。通常头寄存器也称为头门铃(DoorBell,DB),尾寄存器也称为尾DB。关于DB的作用将在后面实施例中具描述。
NVMe存储设备连接到存储节点,存储节点启动后,NVMe存储设备向存储节点进行注册,如图7所示,存储节点执行如下流程:
步骤701:存储节点在内存202中为队列分配内存地址。
存储节点在内存202中为队列分配内存地址,包含为队列的起始地址在内存中分配内存地址。
步骤702:存储节点向管理服务器发送队列消息;队列消息包含存储节点的标识和队列的起始地址。
存储节点在本地建立存储节点的标识和队列的起始地址的映射关系。存储节点可以包含一个或多个NVMe存储设备,队列消息中还可以包含NVMe存储设备的标识,以区分存储节点的不同NVMe存储设备的队列的起始地址。当存储节点只包含一个NVMe存储设备时,队列消息中可以只包含存储节点的标识和队列的起始地址。
在存储节点运行过程中,新的NVMe存储设备连接到存储节点,存储节点也执行图7所示的流程。
进一步的,存储节点检测到NVMe存储设备从存储节点移除,存储节点向管理服务器发送队列信息删除消息,队列信息删除消息包含队列的起始地址。NVMe存储设备从存储节点移除,具体可以包含物理移除或NVMe存储设备故障。存储节点可以检测NVMe存储设备的驱动以确定NVMe存储设备是否从存储节点移除。
管理服务器从存储节点获取队列信息。具体实现,可以由管理服务器向存储节点发送请求用于指示存储节点上报队列信息,或者存储节点主动向管理服务器发送队列信息。其中,队列信息包含存储节点的标识和存储节点为NVMe存储设备的队列分配的队列的起始地址。管理服务器建立存储节点的标识和队列的起始地址的映射关系。通常,存储节点包含多个NVMe存储设备,为区分同一个存储节点不同NVMe存储设备的队列的起始地址,队列信息还包含NVMe存储设备的标识,管理服务器建立的映射关系中还包含NVMe存储设备的标识。一种实现方式,上述映射关系作为表项存储在如图8所示的表中。换句话说,映射关系可以用如图8所示的表项结构,或其他可体现标识和地址之间关系的数据结构储存。其中,N1、N2和N3分别表示存储节点的标识,D11和D12分别表示存储节点1中的NVMe存储设备的标识,Add1表示标识为D11的NVMe存储设备的队列的起始地址。因为标识为D11的NVMe存储设备可以有多个队列,其中一种实现,Add1表示NVMe存储设备的SQ的起始地址,另一种实现,Add1还可以表示NVMe存储设备的队列的起始地址(SQ的起始地址和CQ的起始地址)。图8所示的表中其他项的含义可参考上述的表述。存储节点的标识和队列的起始地址的映射关系作为图8所示的表的表项。在存储系统中,每一个存储节点有一个唯一标识,该标识可以是管理服务器为每一个存储节点分配的编号,也可以是存储节点的硬件信息,如接口卡硬件信息,还可以是存储节点的地址信息,如互联网协议地址(Internet Protocol,IP)地址。NVMe存储设备的标识可以是NVMe存储设备的硬件信息,也可以是NVMe存储设备所在的存储节点中的内部编号,比如,存储节点1中的NVMe存储设备可以标识为D11和D12,或者表示为N1+NVMe设备编号,例如,N1+1,N1+2等。管理服务器建立存储节点的标识和队列的起始地址的映 射关系,客户端可以从管理服务器获得NVMe存储设备队列的信息,从而可以直接访问NVMe存储设备,不需要存储节点CPU的参与,充分发挥了NVMe存储设备的性能。
在一种实现方式中,如图9所示,管理服务器与存储节点通信,确定存储节点是否正常,如通过定期接收来自存储节点的心跳确定存储节点是否正常。例如管理服务器在预定的时间内未收到存储节点的心跳,管理服务器判断与存储节点通信中断,存储节点发生故障。例如,管理服务器未在预定的时间内收到图9所示的存储节点1发送的心跳,管理服务器判断与存储节点1的通信中断,存储节点1发生故障。结合图8,管理服务器删除表中记录的存储节点1相关的表项,即映射信息,删除存储节点1相关的表项后,表如图10所示。当存储节点1恢复后,执行图7所示的流程。
存储节点中NVMe存储设备移除,管理服务器接收来自存储节点的队列信息删除消息,队列信息删除消息包含队列的起始地址。例如,标识为D11的NVMe存储设备从存储接节点1中移除,存储节点1向管理服务器发送队列信息删除消息,如图11所示,管理服务器删除图8所示的标识为D11的所有映射关系。另一种实现,存储节点包含多个NVMe存储设备,为区分同一个存储节点不同NVMe存储设备的队列的起始地址,队列信息还包含NVMe存储设备的标识,管理服务器建立的映射关系中还包含NVMe存储设备的标识。存储节点向管理服务器发送的队列信息删除消息包含NVMe存储设备的标识,管理服务器删除包含该NVMe存储设备的标识的映射关系。另一种实现,当新的NVMe存储设备安装到存储节点1时,存储节点1在内存中为新的NVMe存储设备的队列分配内存地址,执行图7所示流程,在此不再赘述。
本发明实施例中,存储节点本地存储图12所示的表,用于记录本存储节点中NVMe存储设备的标识与NVMe存储设备的队列的起始地址的映射关系。关于图12中的NVMe存储设备的标识的描述可以参考图8到图11的描述,在此不再赘述。本发明实施例图8至图12的表作为一种示意性的数据结构,具体实现可以有多种方式,例如以索引的方式存在,进一步的,可以以多级索引方式存在,例如在图8至图11所示的表中,第一级索引为存储节点标识,用于查找对应的NVMe存储设备的标识;第二级索引为NVMe存储设备的标识,用于查找存储NVMe存储设备的队列的起始地址。
如前所述,客户端访问存储系统,根据访问请求中包含的存储地址确定访问地址对应的NVMe存储设备的逻辑地址,例如客户端发送写请求。具体实现可以访问客户端保存的分区视图或查询管理服务器中的分区视图。例如,客户端确定存储地址对应存储节点1中的NVMe存储设备1的逻辑地址L1、存储节点2中的NVMe存储设备2的逻辑地址L2、存储节点3中的NVMe存储设备3的逻辑地址L3和存储节点4中的NVMe存储设备4的逻辑地址L4,即NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成多副本的分条关系。客户端根据为获取提供逻辑地址的NVMe存储设备的队列的起始地址,向管理服务器发送查询请求,查询请求中包含存储节点的标识。当存储节点包含多个NVMe存储 设备时,查询请求中还包括NVMe存储设备的标识。例如查询请求中分别包含以下几组标识:存储节点1的标识N1和NVMe存储设备1的标识D11,存储节点2的标识N2和NVMe存储设备2的标识D21,存储节点3的标识N3和NVMe存储设备3的标识D31,存储节点4的标识N4和NVMe存储设备4的标识D41。结合图8,管理服务器接收来自客户端的查询请求,查询表项中记录的映射关系,向客户端发送查询请求响应。响应中包含存储节点1的NVMe存储设备1的队列的起始地址Add1、存储节点2的NVMe存储设备2的队列的起始地址Addk、存储节点3的NVMe存储设备3的队列的起始地址Addy、存储节点4的NVMe存储设备4的队列的起始地址Addz。本发明实施例中,管理服务器向客户端发送的查询请求响应中包含的队列的起始地址包含SQ的起始地址,还可以包含CQ的起始地址。客户端与管理服务器通信,可以一次获取多个NVMe存储设备队列的起始地址,减少了通信交互次数。
管理服务器建立锁定标识,锁定标识用于锁定起始地址Add1、Addk、Addy和Addz,一旦存储队列的起始地址被锁定,表示该队列已经被分配给客户端。因此,也可以表述为锁定标识用于锁定存储节点的标识和队列的起始地址的映射关系。具体实现,锁定标识可以是一个标记位,例如用0表示锁定,1表示未锁定。锁定标识可以记录在图8所示的表项中。进一步的,管理服务器还可以记录获得队列的客户端的标识。该标识可以是管理服务器为每一个客户端分配的编号,也可以是客户端的硬件信息,如接口卡硬件信息,还可以是客户端的地址信息,如IP地址。
在本发明实施例中,管理服务器可以根据NVMe存储设备的队列的起始地址的锁定信息统计NVMe存储设备的负载,根据NVMe存储设备的负载动态决定存储地址与NVMe存储设备的逻辑地址的映射关系,从而实现存储系统的负载均衡。根据NVMe存储设备的负载动态决定存储地址与NVMe存储设备的逻辑地址的映射关系是指存储地址与NVMe存储设备的逻辑地址映射关系不是在存储系统初始化时绑定的,而是在客户端接收到写请求时,确定写请求中的存储地址映射的NVMe存储设备的逻辑地址。其中一种实现,管理服务器在客户端查询写请求中的存储地址映射的NVMe存储地址时,管理服务器根据存储系统中NVMe存储设备的负载确定NVMe存储设备的逻辑地址;另一种实现,管理服务器根据存储系统中NVMe存储设备的负载确定分区视图,如分区与存储节点的映射关系。具体的,NVMe存储设备的负载可以根据NVMe存储设备的队列的起始地址的锁定信息统计。
客户端分别向存储节点1、存储节点2、存储节点3和存储节点4发送RDMA写请求。其中,发送给存储节点1的RDMA写请求中包含L1和Add1;发送给存储节点2的RDMA写请求中包含L2和Addk;发送给存储节点3的RDMA写请求中包含L3和Addy;发送给存储节点4的RDMA写请求中包含L4和Addz。关于客户端分别向存储节点1、存储节点2、存储节点3和存储节点4发送RDMA写请求,可以参考本发明实施例前面的描述。本发明实施例以客户端向存储节点1发送RDMA写请求为例进行描述。客户端向存储节点1的接口卡发送RDMA写请求,存储节 点1的接口卡接收RDMA写请求,将逻辑地址L1和客户端接收的写请求中写入L1的数据发送到存储节点1的内存地址Add1。在图13所示,SQ和CQ是空的,即初始的头地址和尾地址相同,CQ的初始的头地址和尾地址相同。具体操作过程如图13所示:
①客户端向SQ的尾发送写请求。
客户端向存储节点1发送RDMA写请求,RDMA写请求中包含L1和队列的起始地址Add1,还包含客户端接收的写请求中写入L1的数据。存储节点1的接口卡接收到RDMA写请求,获取L1和Add1,例如Add1为0。如前所述,本发明实施例中,队列的起始地址Add1包含SQ的起始地址,另一种实现,队列的起始地址Add1还可以包含CQ的起始地址,SQ尾DB初始值为0,CQ尾DB初始值为0。存储节点1的接口卡将L1和客户端接收的写请求中写入L1的数据发送到SQ的起始地址。RDMA写请求为1个命令。
②客户端更新SQ的尾DB。
客户端向SQ写入1个RDMA写请求,SQ的尾变为1。客户端向SQ写入1个RDMA写请求命令后,更新NVMe控制器中的SQ尾DB,值为1。客户端更新SQ尾DB的同时,也是在通知NVMe控制器有写请求需要执行。
③NVMe控制器从SQ队列获取写请求并执行写请求。
客户端更新SQ尾DB,NVMe控制器收到通知,从SQ获取写请求并执行写请求。
④NVMe控制器更新SQ头DB。
NVMe控制器把SQ中的写请求执行完,SQ的头也变为1,NVMe控制器把SQ1的头写入到SQ头DB。
⑤NVMe控制器向CQ写入写请求执行结果。
NVMe控制器执行写请求,将写请求执行结果写入CQ的尾。
⑥客户端更新CQ的尾DB。
NVMe控制器执行写请求,向CQ尾写入写请求执行结果,更新CQ的尾DB,值为1。
⑦客户端获取写请求执行结果。
具体实现,客户端可以采用轮询的方式,从CQ获取写请求执行结果。
⑧NVMe控制器更新CQ的头DB。
客户端向CQ的头DB中写入CQ的头的地址,值为1。
本发明实施例访问请求处理流程另一种实现方式中,图13中的步骤②和⑥可以也可以由存储节点的接口卡实现。
如图12所示,存储节点记录本存储节点中NVMe存储设备的标识与NVMe存储设备的队列的起始地址的映射关系。客户端访问存储系统,客户端根据访问请求中包含的存储地址确定存储地址对应的NVMe存储设备的逻辑地址,具体实现请参见前面描述。例如,客户端确定存储地址对应存储节点1中的NVMe存储设备1的逻辑地址L1、存储节点2中的NVMe存储设备2的逻辑地址L2、存储节点3中的NVMe存储设备3的逻辑地址L3和存储节点4中的NVMe存储设备4的逻辑地 址L4,即NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成多副本的分条关系。在另一种实现方式,客户端分别向存储节点1、存储节点2、存储节点3和存储节点4发送查询请求,查询请求中包含NVMe存储设备的标识。结合图12,存储节点1接收来自客户端的查询请求,查询表项中记录的映射关系,向客户端发送查询请求响应。响应中包含存储节点1的NVMe存储设备1的队列的起始地址Add1。存储节点2、存储节点3和存储节点4分别根据查询请求执行查询操作,向客户端发送查询请求响应。仍以存储节点1为例,存储节点1建立锁定标识,锁定标识用于锁定队列的起始地址Add1。一旦队列的起始地址被锁定,表示该队列已经被分配给客户端。具体实现,锁定标识可以是一个标记位,例如用0表示锁定,1表示未锁定。锁定标识可以记录在图12所示的表项中。在这种实现方式中,客户端向存储节点发送查询请求,可以减少管理服务器的负载。客户端从存储节点接收查询请求响应,执行图13所示的操作。
本发明实施例中另一种实现方式,NVMe存储设备构成EC的分条关系。客户端也可以使用上述两种方式访问NVMe存储设备,在此不再赘述。
本发明实施例中,客户端获得NVMe存储设备队列的起始地址,在释放该NVMe存储设备队列之前,客户端根据接收访问请求的数量以及队列的起始地址,根据NVMe存储设备队列的起始地址的变化,向NVMe存储设备队列发送RDMA访问请求,并从NVMe存储设备的CQ获得访问请求执行结果。
在本发明实施例中,客户端可以直接向存储系统中存储节点的NVMe存储设备发送RDMA请求,不需要存储节点的CPU参与,充分发挥和利用了NVMe存储设备的性能。
在NVMe存储设备应用到本发明实施例的同时,随着存储设备的发展,存储系统采用多种类似存储设备以提升存储系统性能。例如,存储级内存(Storage Class Memory,SCM)的存储设备同时具备持久化和快速字节级访问的特点。目前比较流行的SCM的存储设备主要包含相变存储器(Phase-change Memory,PCM)、阻抗随机存储器(Resistive Random-access Memory,ReRAM)、磁性随机存储器(Magnetic Random Access Memory)和碳纳米管随机存储器(Nantero’s CNT Random Access Memory)等。如图14所示,本发明实施例中的分布式块存储系统,每一个存储节点包含一个或多个NVMe存储设备,例如NVMe接口规范的固态硬盘(Solid State Disk,SSD),同时包含一个或多个SCM的存储设备。另一种实现,部分存储节点包含一个或多个NVMe存储设备,部分存储节点包含一个或多个SCM的存储设备。
在图14所示的分布式块存储系中,分布式块存储系统将NVMe存储设备的逻辑地址划分资源池,将SCM的存储设备划分为资源池,客户端接收的访问请求中的存储地址映射到NVMe存储设备提供的逻辑地址,具体实现可参考前面实施例描述。客户端接收的访问请求中的存储地址到存储设备提供的地址的映射方式可以表示为存储地址-----NVMe存储设备----逻辑地址,存储地址---SCM的存储设备---基地址。
基于图14所示的分布式存储系统,数据的多个副本可以存储在不同类型 的存储设备上。例如,一个副本存储在SCM的存储设备上,一个或多个副本存储在NVMe存储设备上。或者一个副本存储在SCM的存储设备上,一个副本以EC分条的形式存储在多个NVMe存储设备上。客户端读取数据时,从SCM的存储设备中获取数据,从而提高读性能。
本发明实施例以一个副本存储在SCM的存储设备上,两个副本存储在NVMe存储设备上为例进行描述。客户端接收的写请求中的数据映射到一个SCM的存储设备的基地址和两个NVMe存储设备的逻辑地址。如前面所述,具体实现,写请求中的存储地址到SCM的存储设备提供的基地址映射以及写请求中的存储地址到NVMe存储设备的逻辑地址的映射可以基于图3和图4所示的分区视图,也可以是写请求中的存储地址到SCM的存储设备提供的基地址的直接映射以及写请求中的存储地址与NVMe存储设备的逻辑地址的直接映射。
进一步的,客户端接收访问请求,根据访问请求中的存储地址,确定存储地址映射的SCM的存储设备基地址以及存储地址映射的NVMe存储设备的逻辑地址。本发明实施例中,客户端确定存储地址映射的NVMe存储设备的逻辑地址,后续的访问过程可以参考前面客户端访问NVMe存储设备的过程,在此不再赘述。如图15所示,以副本长度为8字节为例,客户端向SCM的存储设备发送RDMA写请求的过程如下:
①客户端向存储节点发送获取与增加(fetch and add(ptr,8))命令。
其中,fetch and add(ptr,len value)为RDMA原子操作指令,用于获取当前已经分配的存储空间的结束地址以及写入数据长度。len value表示写入数据长度,本发明实施例中当前已经分配的存储空间的结束地址为10,len value为8字节。
②存储节点为客户端分配长度为8字节的存储地址。
存储节点收到fetch and add(ptr,8)命令,将存储地址为11-18预留给客户端。
③存储节点向客户端返回当前已经分配的存储空间的结束地址。
④客户端向存储节点发送RDMA写请求。其中,RDMA请求中包含长度为8字节的数据和当前已经分配的存储空间的结束地址(基地址)为10。
结合图1所示的存储系统,另一种实现方式,存储节点还可以包含机械硬盘,每一个存储节点包含一个或多个NVMe存储设备,例如NVMe接口规范的固态硬盘(Solid State Disk,SSD),同时包含一个或多个机械硬盘。另一种实现,部分存储节点包含一个或多个NVMe存储设备,部分存储节点包含一个或多个机械硬盘。数据的多个副本可以存储在不同类型的存储设备上。例如,一个副本存储在NVMe存储设备上,一个或多个副本存储在机械硬盘上。或者一个副本存储在NVMe存储设备上,一个副本以EC分条的形式存储在多个机械硬盘上。客户端读取数据时,从NVMe存储设备中获取数据,从而提高读性能。具体访问过程可参考本发明上述各实施例描述,在此不再赘述。客户端向机械硬盘发送的写请求包含客户端接收的写请求中的存储地址 映射到机械硬盘的逻辑地址。客户端向机械硬盘发送的写请求也可以为RDMA请求。
本发明上述实施例以客户端向存储节点中的NVMe存储设备及SCM的存储设备发送RDMA写请求为例进行说明,本发明实施例方案也可以应用到向存储节点中的NVMe存储设备及SCM的存储设备发送RDMA读请求等,本发明实施例对此不作限定。即本发明实施例可以实现客户端向存储节点中的NVMe存储设备及SCM的存储设备发送RDMA访问请求。本发明实施例中,客户端接收到的访问请求中包含的存储地址可以对应多个存储设备的逻辑地址(或基地址),因此,对其中一个存储设备而言,表示为逻辑地址映射到该存储设备的逻辑地址(或基地址)
基于本发明上述实施例的描述,本发明实施例还提供了存储节点,如图16所示,应用于存储系统中,存储系统还包含管理服务器,存储节点包含NVMe接口规范的第一存储设备;存储节点包括分配单元161和发送单元162;其中,分配单元,用于在内存中为第一存储设备的队列的起始地址分配第一内存地址,发送单元162,用于向管理服务器发送第一队列消息;第一队列消息包含存储节点的标识和第一内存地址。进一步的,存储节点还包括检测单元,用于检测到第一存储设备安装到所述存储节点。进一步的,检测单元,还用于检测到第一存储设备从存储节点中移除;发送单元162,还用于向管理服务器发送队列消息删除消息;队列消息删除消息包含第一内存地址。
与图16所示的存储节点对应,本发明实施例还提供了如图17所示的一种应用于存储系统的客户端,存储系统包含管理服务器和第一存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址存储在第一存储节点的第一内存中的第一内存地址;管理服务器存储第一存储节点的标识和第一内存地址的第一映射关系;客户端包括发送单元171和接收单元172,其中,发送单元171,用于向管理服务器发送查询请求;查询请求包含第一存储节点的标识;接收单元172,用于接收来自管理服务器查询请求响应;查询请求响应包含管理服务器根据第一映射关系确定的第一内存地址。进一步的,发送单元171,还用于向第一存储节点发送第一远程直接内存访问请求;第一远程直接内存访问请求包含第一内存地址。进一步的,存储系统还包含第二存储节点,第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器存储第二存储节点的标识和第二内存地址的第二映射关系;查询请求包含所述第二存储节点的标识;查询请求响应包含所述管理服务器根据第二映射关系确定的第二内存地址;其中,第一存储设备和第二存储设备构成分条关系;发送单元171,还用于向第二存储节点发送第二远程直接内存访问请求;第二远程直接内存访问请求包含第二内存地址。
与图16和17对应,在图18所示实施例中提供了一种存储系统中的管理服务器,存储系统包含管理服务器和第一存储节点,第一存储节点包含 NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;管理服务器包括获取单元181、建立单元182、接收单元183和发送单元184;其中,获取单181元,用于从第一存储节点获取第一队列消息;第一队列消息包含第一存储节点的标识和第一内存地址;建立单元182,用于建立第一存储节点的标识和第一内存地址之间的第一映射关系;接收单元183,用于接收来自客户端的查询请求;查询请求包含第一存储节点的标识;发送单元184,用于根据第一映射关系向客户端发送查询请求响应;查询请求响应包含第一内存地址。进一步的,建立单元182,还用于建立锁定标识,锁定标识用于锁定第一内存地址。进一步的,存储系统还包括第二存储节点,第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;获取单元181还用于从第二存储节点获取第二存储设备的第二队列消息;第二队列消息包含第二存储节点的标识和第二内存地址;建立单元182,还用于建立第二存储节点的标识和第二内存地址的第二映射关系。进一步的,获取单元181还用于从第一存储节点获得第三队列消息;第三队列消息包含第一存储节点的标识和第三内存地址;建立单元182,还用于建立第一存储节点的标识和第三内存地址的第三映射关系;其中,NVMe接口规范的第三存储设备的队列的起始地址位于第一内存中的第三内存地址,第三存储设备为所述第一存储节点新增加的存储设备。进一步的,接收单元183,还用于从第二存储节点接收队列消息删除消息;队列消息删除消息包含第二内存地址,管理服务器还包含删除单元,用于删除第二映射关系。进一步的,管理服务器,还包括检测单元和删除单元;其中,检测单元,用于检测到与第一存储节点通信中断;删除单元,用于删除第一映射关系。进一步的,检测单元,具体用于检测在预定的时间内未收到第一存储节点的心跳。
如图19所示,本发明实施例进一步提供了一种存储系统中的管理服务器,存储系统还包含第一存储节点和第二存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器存储映射表,映射表包含第一存储节点的标识和第一内存地址之间的第一映射关系以及第二存储节点的标识和第二内存地址之间的第二映射关系;管理服务器包括接收单元191和发送单元192;其中,接收单元191,用于接收来自客户端的查询请求;查询请求包含第一存储节点的标识和第二存储节点的标识;发送单元192,用于根据映射表向所述客户端发送查询请求响应;查询请求响应包含第一内存地址和第二内存地址。进一步的,管理服务器还包括获取单元和建立单元,用于从第一存储节点获取第一队列消息,从第二存储节点获取第二队列消息;第一队列消息包含第一存储节点的标识和第一内存地址;第二队列消息包含第二存储节 点的标识和第二内存地址;建立单元,用于建立第一映射关系和第二映射关系。进一步的,建立单元还用于建立锁定标识,锁定标识用于锁定第一映射关系和第二映射关系。进一步的,获取单元还用于从第一存储节点获得第三队列消息;第三队列消息包含第一存储节点的标识和第三内存地址;建立单元,还用于建立第一存储节点的标识和第三内存地址的第三映射关系;其中,NVMe接口规范的第三存储设备的队列的起始地址位于第一内存中的第三内存地址,第三存储设备为所述第一存储节点新增加的存储设备。进一步的,管理服务器,还包括删除单元;接收单元191,还用于从第二存储节点接收队列消息删除消息;队列消息删除消息包含第二内存地址;删除单元,用于从映射表中删除第二映射关系。进一步的,管理服务器,还包括检测单元和删除单元;其中,检测单元,用于检测到与第一存储节点通信中断;删除单元,用于删除第一映射关系。进一步的,检测单元具体用于检测到在预定的时间内未收到第一存储节点的心跳。
与图19描述的管理服务器对应,图20提供了本发明实施例的存储系统中的客户端,存储系统包含管理服务器、第一存储节点和第二存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器存储映射表,映射表包含第一存储节点的标识和所述第一内存地址之间的第一映射关系以及第二存储节点的标识和第二内存地址之间的第二映射关系;客户端包括发送单元2001和接收单元2002;其中,发送单元2001,用于向管理服务器发送查询请求;查询请求包含第一存储节点的标识和第二存储节点的标识;接收单元2002,用于接收来自管理服务器的查询请求响应;查询请求响应包含管理服务器根据映射表确定的第一内存地址和第二内存地址。进一步的,发送单元2002,还用于向第一存储节点发送第一远程直接内存访问请求,向第二存储节点发送第二远程直接内存访问请求;第一远程直接内存访问请求包含第一内存地址;第二远程直接内存访问请求包含第二内存地址。
如图21所示,本发明实施例提供了存储系统中另一种客户端,存储系统包含第一存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址,客户端包括接收单元2101、查询单元2102、获取单元2103和发送单元2104;其中,接收单元2101,用于接收写请求,写请求包含存储地址;查询单元2102,用于查询存储地址的映射关系,存储地址的映射关系所述存储地址映射到第一存储节点的第一存储设备的第一逻辑地址;获取单元2103,用于获取第一存储设备的队列的起始地址所在的第一内存地址;发送单元2104,用于向第一存储节点发送第一远程直接内存访问写请求;第一远程直接内存访问写请求包含第一内存地址和第一逻辑地址。进一步的,存储系统还包括管理服务器,管理服务器存储有第一存储节点的标识与所述内存地址 的映射关系;获取单元2103,具体用于:向管理服务器发送第一查询请求;第一队列查询请求包含第一存储节点的标识,接收来自管理服务器的第一查询请求响应,第一查询请求响应包含第一内存地址。进一步的,获取单元2103,具体用于:向第一存储节点发送第二查询请求;第二查询请求包含第一存储设备的标识;接收来自第一存储节点的第二查询请求响应;第二查询请求响应包含所述第一内存地址。进一步的,存储系统还包括第二存储节点,第二存储节点包含存储级内存的第二设备,存储地址的映射关系包含存储地址映射到第二存储设备的第一基地址;发送单元2104,还用于向所述第二存储节点发送第二远程直接内存访问写请求;第二远程直接内存访问写请求包含所述第一基地址。进一步的,存储系统还包括第三存储节点,第三存储节点包含第三存储设备,存储地址的映射关系包含存储地址映射到第三存储设备的第三逻辑地址;第三存储设备为机械硬盘;发送单元2104,还用于向第三存储节点发送第三写请求;第三写请求包含所述第三逻辑地址。进一步的,存储系统包含第四存储节点,第四存储节点包含NVMe接口规范的第四存储设备,第四存储设备的队列的起始地址位于第四存储节点的第三内存中的第三内存地址;存储地址的映射关系包含存储地址映射到第四存储设备的第四逻辑地址;获取单元2101,还用于获取第四存储设备的队列的起始地址所在的第三内存地址;发送单元2104,还用于向第一存储节点发送第四远程直接内存访问写请求;第四远程直接内存访问写请求包含第三内存地址和第四逻辑地址。
本发明实施例中,队列的起始地址位于内存中的内存地址与队列在内存中的起始地址具有相同的含义。上述描述也称为队列在内存中的起始地址位于内存中的某一内存地址。
本发明实施例的管理服务器、存储节点和客户端的实现可以参考前面本发明实施例中的管理服务器、存储节点和客户端的描述。具体的,本发明实施例中的装置可以为软件模块,可以运行在服务器上,从而使服务器完成本发明实施例中描述的各种实现。装置也可以为硬件设备,具体可以参考图2所示的结构,装置的各单元可以由图2描述的服务器的处理器实现。
相应的,本发明实施例还提供了计算机可读存储介质和计算机程序产品,计算机可读存储介质和计算机程序产品中包含计算机指令用于实现本发明实施例中描述的各种方案。
本发明实施例中以EC和多副本作为分条算法,但本发明实施例中的分条算法并不限于EC和多副本作为分条算法。
在本发明所提供的几个实施例中,应该理解到,所公开的装置、方法,可以通过其它的方式实现。例如,以上所描述的装置实施例所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或 其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例各方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

Claims (30)

  1. 一种存储系统访问方法,其特征在于,所述存储系统包含第一存储节点,所述第一存储节点包含NVMe接口规范的第一存储设备,所述第一存储设备的队列的起始地址位于所述第一存储节点的第一内存中的第一内存地址,所述方法包括:
    客户端接收写请求,所述写请求包含存储地址;
    所述客户端查询所述存储地址的映射关系,所述存储地址的映射关系包含所述存储地址映射到所述第一存储节点的所述第一存储设备的第一逻辑地址;
    所述客户端获取所述第一存储设备的队列的起始地址所在的所述第一内存地址;
    所述客户端向所述第一存储节点发送第一远程直接内存访问写请求;所述第一远程直接内存访问写请求包含所述第一内存地址和所述第一逻辑地址。
  2. 根据权利要求1所述的方法,其特征在于,所述存储系统还包括管理服务器,所述管理服务器存储有所述第一存储节点的标识与所述第一内存地址的映射关系;所述客户端获取所述第一内存地址,具体包括:
    所述客户端向所述管理服务器发送第一查询请求;所述第一队列查询请求包含所述第一存储节点的标识;
    所述客户端接收来自所述管理服务器的第一查询请求响应,所述第一查询请求响应包含所述第一内存地址。
  3. 根据权利要求1所述的方法,其特征在于,所述客户端获取所述第一内存地址,具体包括:
    所述客户端向所述第一存储节点发送第二查询请求;所述第二查询请求包含所述第一存储设备的标识;
    所述客户端接收来自所述第一存储节点的第二查询请求响应;所述第二查询请求响应包含所述第一内存地址。
  4. 根据权利要求1至3任一所述的方法,其特征在于,所述存储系统还包括第二存储节点,所述第二存储节点包含存储级内存的第二设备,所述存储地址的映射关系包含所述存储地址映射到所述第二存储设备的第一基地址;
    所述方法还包括:
    所述客户端向所述第二存储节点发送第二远程直接内存访问写请求;所述第二远程直接内存访问写请求包含所述第一基地址。
  5. 根据权利要求4所述的方法,其特征在于,所述第一存储设备和所述第二存储设备属于一个分条关系;所述分条关系为纠删码分条关系或多副本分条关系。
  6. 根据权利要求1至3任一所述的方法,其特征在于,所述存储系统还包括第三存储节点,所述第三存储节点包含第三存储设备,所述存储地址的映射关系包含所述存储地址映射到所述第三存储设备的第三逻辑地址;所述第三存储设备为机械硬盘;
    所述方法还包括:
    所述客户端向所述第三存储节点发送第三写请求;所述第三写请求包含所 述第三逻辑地址。
  7. 根据权利要求6所述的方法,其特征在于,所述第一存储设备和所述第三存储设备属于一个分条关系;所述分条关系为纠删码分条关系或多副本分条关系。
  8. 根据权利要求1至3任一所述的方法,其特征在于,所述存储系统包含第四存储节点,所述第四存储节点包含所述NVMe接口规范的第四存储设备,所述第四存储设备的队列的起始地址位于所述第四存储节点的第三内存中的第三内存地址;所述存储地址的映射关系包含所述存储地址映射到所述第四存储设备的第四逻辑地址;
    所述方法包括:
    所述客户端获取所述第四存储设备的队列的起始地址所在的所述第三内存地址;
    所述客户端向所述第四存储节点发送第四远程直接内存访问写请求;所述第四远程直接内存访问写请求包含所述第三内存地址和所述第四逻辑地址。
  9. 一种存储系统访问方法,其特征在于,所述存储系统包含存储节点,所述存储节点包含NVMe接口规范的存储设备,所述存储设备的队列的起始地址位于所述存储节点的内存中的内存地址,所述方法包括:
    所述存储节点的接口卡接收来自客户端的远程直接内存访问写请求,所述远程直接内存访问写请求包含所述内存地址、所述存储设备的逻辑地址和数据;其中所述数据为所述客户端接收写请求中包含的写入所述存储设备的逻辑地址的数据,所述写请求包含存储地址,所述存储地址映射到所述存储设备的逻辑地址;
    所述接口卡将所述存储设备的逻辑地址和所述数据发送到所述内存地址。
  10. 根据权利要求9所述的方法,其特征在于,所述方法还包括:
    所述接口卡接收来自所述客户端的查询请求,所述查询请求包含所述存储节点的标识;
    所述接口卡向所述客户端发送查询请求响应,所述查询请求响应包含所述内存地址。
  11. 一种客户端,其特征在于,所述客户端应用于存储系统,所述存储系统包含第一存储节点,所述第一存储节点包含NVMe接口规范的第一存储设备,所述第一存储设备的队列的起始地址位于所述第一存储节点的第一内存中的第一内存地址,所述客户端包括:
    接收单元,用于接收写请求,所述写请求包含存储地址;
    查询单元,用于查询所述存储地址的映射关系,所述存储地址的映射关系包含所述存储地址映射到所述第一存储节点的所述第一存储设备的第一逻辑地址;
    获取单元,用于获取所述第一存储设备的队列的起始地址所在的所述第一内存地址;
    发送单元,用于向所述第一存储节点发送第一远程直接内存访问写请求;所述第一远程直接内存访问写请求包含所述第一内存地址和所述第一逻辑地址。
  12. 根据权利要求11所述的客户端,其特征在于,所述存储系统还包括管理服务器,所述管理服务器存储有所述第一存储节点的标识与所述第一内存地址的 映射关系;所述获取单元,具体用于:
    向所述管理服务器发送第一查询请求;所述第一队列查询请求包含所述第一存储节点的标识;
    接收来自所述管理服务器的第一查询请求响应,所述第一查询请求响应包含所述第一内存地址。
  13. 根据权利要求11所述的客户端,其特征在于,所述获取单元,具体用于:
    向所述第一存储节点发送第二查询请求;所述第二查询请求包含所述第一存储设备的标识;
    接收来自所述第一存储节点的第二查询请求响应;所述第二查询请求响应包含所述第一内存地址。
  14. 根据权利要求11至13任一所述的客户端,其特征在于,所述存储系统还包括第二存储节点,所述第二存储节点包含存储级内存的第二设备,所述存储地址的映射关系包含所述存储地址映射到所述第二存储设备的第一基地址;
    所述发送单元,还用于向所述第二存储节点发送第二远程直接内存访问写请求;所述第二远程直接内存访问写请求包含所述第一基地址。
  15. 根据权利要求11至13任一所述的客户端,其特征在于,所述存储系统还包括第三存储节点,所述第三存储节点包含第三存储设备,所述存储地址的映射关系包含所述存储地址映射到所述第三存储设备的第三逻辑地址;所述第三存储设备为机械硬盘;
    所述发送单元,还用于向所述第三存储节点发送第三写请求;所述第三写请求包含所述第三逻辑地址。
  16. 根据权利要求11至13任一所述的客户端,其特征在于,所述存储系统包含第四存储节点,所述第四存储节点包含所述NVMe接口规范的第四存储设备,所述第四存储设备的队列的起始地址位于所述第四存储节点的第三内存中的第三内存地址;所述存储地址的映射关系包含所述存储地址映射到所述第四存储设备的第四逻辑地址;
    所述获取单元,还用于获取所述第四存储设备的队列的起始地址所在的所述第三内存地址;
    所述发送单元,还用于向所述第一存储节点发送第四远程直接内存访问写请求;所述第四远程直接内存访问写请求包含所述第三内存地址和所述第四逻辑地址。
  17. 一种存储节点,其特征在于,所述存储节点包含NVMe接口规范的存储设备;所述存储节点包括:
    内存,用于为所述存储设备的队列的起始地址分配内存地址;
    接口卡,用于:
    接收来自客户端的远程直接内存访问写请求;其中,所述远程直接内存访问写请求包含所述内存地址、所述存储设备的逻辑地址和数据;其中所述数据为所述客户端接收写请求中包含的写入所述存储设备的逻辑地址的数据,所述写请求包含存储地址,所述存储地址映射到所述存储设备的逻辑地址;
    将所述存储设备的逻辑地址和数据发送到所述内存地址。
  18. 根据权利要求17所述的存储节点,所述接口卡还用于:
    接收来自所述客户端的查询请求,所述查询请求包含所述存储节点的标识;
    向所述客户端发送查询请求响应,所述查询请求响应包含所述内存地址。
  19. 一种客户端,其特征在于,所述客户端应用于存储系统,所述存储系统包含第一存储节点,所述第一存储节点包含NVMe接口规范的第一存储设备,所述第一存储设备的队列的起始地址位于所述第一存储节点的第一内存中的第一内存地址,所述客户端所包括接口和处理器,所述接口和所述处理器通信;其中,所述处理器用于:
    接收写请求,所述写请求包含存储地址;
    查询所述存储地址的映射关系,所述存储地址的映射关系包含所述存储地址映射到所述第一存储节点的所述第一存储设备的第一逻辑地址;
    获取所述第一存储设备的队列的起始地址所在的所述第一内存地址;
    向所述第一存储节点发送第一远程直接内存访问写请求;所述第一远程直接内存访问写请求包含所述第一内存地址和所述第一逻辑地址。
  20. 根据权利要求19所述的客户端,其特征在于,所述存储系统还包括管理服务器,所述管理服务器存储有所述第一存储节点的标识与所述第一内存地址的映射关系;所述处理器具体用于:
    向所述管理服务器发送第一查询请求;所述第一队列查询请求包含所述第一存储节点的标识;
    接收来自所述管理服务器的第一查询请求响应,所述第一查询请求响应包含所述第一内存地址。
  21. 根据权利要求19所述的客户端,其特征在于,所述处理器具体用于:
    向所述第一存储节点发送第二查询请求;所述第二查询请求包含所述第一存储设备的标识;
    接收来自所述第一存储节点的第二查询请求响应;所述第二查询请求响应包含所述第一内存地址。
  22. 根据权利要求19至21任一所述的客户端,其特征在于,所述存储系统还包括第二存储节点,所述第二存储节点包含存储级内存的第二设备,所述存储地址的映射关系包含所述存储地址映射到所述第二存储设备的第一基地址;所述处理器进一步用于:
    向所述第二存储节点发送第二远程直接内存访问写请求;所述第二远程直接内存访问写请求包含所述第一基地址。
  23. 根据权利要求19至21任一所述的客户端,其特征在于,所述存储系统还包括第三存储节点,所述第三存储节点包含第三存储设备,所述存储地址的映射关系包含所述存储地址映射到所述第三存储设备的第三逻辑地址;所述第三存储设备为机械硬盘;
    所述处理器进一步用于:
    向所述第三存储节点发送第三写请求;所述第三写请求包含所述第三逻辑地 址。
  24. 根据权利要求19至21任一所述的客户端,其特征在于,所述存储系统包含第四存储节点,所述第四存储节点包含所述NVMe接口规范的第四存储设备,所述第四存储设备的队列的起始地址位于所述第四存储节点的第三内存中的第三内存地址;所述存储地址的映射关系包含所述存储地址映射到所述第四存储设备的第四逻辑地址;所述处理器进一步用于:
    获取所述第四存储设备的队列的起始地址所在的所述第三内存地址;
    向所述第一存储节点发送第四远程直接内存访问写请求;所述第四远程直接内存访问写请求包含所述第三内存地址和所述第四逻辑地址。
  25. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包含访问存储系统的客户端所执行的计算机指令,所述存储系统包含第一存储节点,所述第一存储节点包含NVMe接口规范的第一存储设备,所述第一存储设备的队列的起始地址位于所述第一存储节点的第一内存中的第一内存地址,所述客户端的处理器执行所述计算机指令用于:
    接收写请求,所述写请求包含存储地址;
    查询所述存储地址的映射关系,所述存储地址的映射关系包含所述存储地址映射到所述第一存储节点的所述第一存储设备的第一逻辑地址;
    获取所述第一存储设备的队列的起始地址所在的所述第一内存地址;
    向所述第一存储节点发送第一远程直接内存访问写请求;所述第一远程直接内存访问写请求包含所述第一内存地址和所述第一逻辑地址。
  26. 根据权利要求25所述的计算机可读存储介质,其特征在于,所述存储系统还包括管理服务器,所述管理服务器存储有所述第一存储节点的标识与所述第一内存地址的映射关系;所述客户端的处理器执行所述计算机指令具体用于:
    向所述管理服务器发送第一查询请求;所述第一队列查询请求包含所述第一存储节点的标识;
    接收来自所述管理服务器的第一查询请求响应,所述第一查询请求响应包含所述第一内存地址。
  27. 根据权利要求25所述的计算机可读存储介质,其特征在于,所述客户端的处理器执行所述计算机指令具体用于:
    向所述第一存储节点发送第二查询请求;所述第二查询请求包含所述第一存储设备的标识;
    接收来自所述第一存储节点的第二查询请求响应;所述第二查询请求响应包含所述第一内存地址。
  28. 根据权利要求25至27任一所述的计算机可读存储介质,其特征在于,所述存储系统还包括第二存储节点,所述第二存储节点包含存储级内存的第二设备,所述存储地址的映射关系包含所述存储地址映射到所述第二存储设备的第一基地址;所述客户端的处理器执行所述计算机指令进一步用于:
    向所述第二存储节点发送第二远程直接内存访问写请求;所述第二远程直接内存访问写请求包含所述第一基地址。
  29. 根据权利要求25至27任一所述的计算机可读存储介质,其特征在于,所述存储系统还包括第三存储节点,所述第三存储节点包含第三存储设备,所述存储地址的映射关系包含所述存储地址映射到所述第三存储设备的第三逻辑地址;所述第三存储设备为机械硬盘;
    所述客户端的处理器执行所述计算机指令进一步用于:
    向所述第三存储节点发送第三写请求;所述第三写请求包含所述第三逻辑地址。
  30. 根据权利要求25至27任一所述的计算机可读存储介质,其特征在于,所述存储系统包含第四存储节点,所述第四存储节点包含所述NVMe接口规范的第四存储设备,所述第四存储设备的队列的起始地址位于所述第四存储节点的第三内存中的第三内存地址;所述存储地址的映射关系包含所述存储地址映射到所述第四存储设备的第四逻辑地址;所述客户端的处理器执行所述计算机指令进一步用于:
    获取所述第四存储设备的队列的起始地址所在的所述第三内存地址;
    向所述第一存储节点发送第四远程直接内存访问写请求;所述第四远程直接内存访问写请求包含所述第三内存地址和所述第四逻辑地址。
PCT/CN2017/118645 2017-12-26 2017-12-26 存储系统访问方法及装置 WO2019127018A1 (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/CN2017/118645 WO2019127018A1 (zh) 2017-12-26 2017-12-26 存储系统访问方法及装置
EP17898345.8A EP3525080A4 (en) 2017-12-26 2017-12-26 METHOD AND DEVICE FOR ACCESSING A STORAGE SYSTEM
CN201780002685.5A CN110235098B (zh) 2017-12-26 2017-12-26 存储系统访问方法及装置
US16/880,003 US11436157B2 (en) 2017-12-26 2020-05-21 Method and apparatus for accessing storage system
US17/877,190 US20220382685A1 (en) 2017-12-26 2022-07-29 Method and Apparatus for Accessing Storage System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/118645 WO2019127018A1 (zh) 2017-12-26 2017-12-26 存储系统访问方法及装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/880,003 Continuation US11436157B2 (en) 2017-12-26 2020-05-21 Method and apparatus for accessing storage system

Publications (1)

Publication Number Publication Date
WO2019127018A1 true WO2019127018A1 (zh) 2019-07-04

Family

ID=67064203

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/118645 WO2019127018A1 (zh) 2017-12-26 2017-12-26 存储系统访问方法及装置

Country Status (4)

Country Link
US (2) US11436157B2 (zh)
EP (1) EP3525080A4 (zh)
CN (1) CN110235098B (zh)
WO (1) WO2019127018A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110235098B (zh) * 2017-12-26 2021-06-22 华为技术有限公司 存储系统访问方法及装置
CN110199270B (zh) 2017-12-26 2022-09-02 华为技术有限公司 存储系统中存储设备的管理方法及装置
CN112527186B (zh) * 2019-09-18 2023-09-08 华为技术有限公司 一种存储系统、存储节点和数据存储方法
CN113791736A (zh) * 2021-09-15 2021-12-14 京东科技信息技术有限公司 数据迁移方法、网卡设备、服务器及数据迁移系统
US11899585B2 (en) 2021-12-24 2024-02-13 Western Digital Technologies, Inc. In-kernel caching for distributed cache
US11934663B2 (en) 2022-01-10 2024-03-19 Western Digital Technologies, Inc. Computational acceleration for distributed cache
US11797379B2 (en) * 2022-02-04 2023-10-24 Western Digital Technologies, Inc. Error detection and data recovery for distributed cache
CN115495023B (zh) * 2022-11-16 2023-03-14 苏州浪潮智能科技有限公司 一种数据请求方法、装置、设备及存储介质
CN116886719B (zh) * 2023-09-05 2024-01-23 苏州浪潮智能科技有限公司 存储系统的数据处理方法、装置、存储系统、设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160077976A1 (en) * 2014-05-27 2016-03-17 Mellanox Technologies Ltd. Address translation services for direct accessing of local memory over a network fabric
CN105556930A (zh) * 2013-06-26 2016-05-04 科内克斯实验室公司 针对远程存储器访问的nvm express控制器
US20160232973A1 (en) * 2015-02-11 2016-08-11 Won-Taeck JUNG Nonvolatile memory and storage device including nonvolatile memory
WO2016196766A2 (en) * 2015-06-03 2016-12-08 Diamanti, Inc. Enabling use of non-volatile media - express (nvme) over a network
CN106326134A (zh) * 2015-06-30 2017-01-11 华为技术有限公司 Ftl地址映射的方法及装置
CN106354615A (zh) * 2015-07-21 2017-01-25 北京忆恒创源科技有限公司 固态硬盘日志生成方法及其装置
CN106599701A (zh) * 2016-12-06 2017-04-26 华为技术有限公司 一种硬盘加密方法、硬盘及硬盘加密设备

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8775718B2 (en) * 2008-05-23 2014-07-08 Netapp, Inc. Use of RDMA to access non-volatile solid-state memory in a network storage system
BR112014017543A2 (pt) * 2012-01-17 2017-06-27 Intel Corp técnicas de validação de comando para o acesso a um dispositivo de armazenamento por um cliente remoto
US8554963B1 (en) * 2012-03-23 2013-10-08 DSSD, Inc. Storage system with multicast DMA and unified address space
US8301832B1 (en) * 2012-03-23 2012-10-30 DSSD, Inc. Storage system with guaranteed read latency
DE102013101863A1 (de) * 2013-02-26 2014-08-28 Fujitsu Technology Solutions Intellectual Property Gmbh Hochverfügbares Hauptspeicher-Datenbanksystem, Arbeitsverfahren und deren Verwendungen
US9298648B2 (en) * 2013-05-08 2016-03-29 Avago Technologies General Ip (Singapore) Pte Ltd Method and system for I/O flow management using RAID controller with DMA capabilitiy to directly send data to PCI-E devices connected to PCI-E switch
US9311110B2 (en) * 2013-07-08 2016-04-12 Intel Corporation Techniques to initialize from a remotely accessible storage device
US9658782B2 (en) * 2014-07-30 2017-05-23 Excelero Storage Ltd. Scalable data using RDMA and MMIO
US9727523B2 (en) * 2014-10-27 2017-08-08 International Business Machines Corporation Remote direct memory access (RDMA) optimized high availability for in-memory data storage
US9934177B2 (en) * 2014-11-04 2018-04-03 Cavium, Inc. Methods and systems for accessing storage using a network interface card
US9652405B1 (en) * 2015-06-30 2017-05-16 EMC IP Holding Company LLC Persistence of page access heuristics in a memory centric architecture
KR102430187B1 (ko) * 2015-07-08 2022-08-05 삼성전자주식회사 RDMA NVMe 디바이스의 구현 방법
US10423568B2 (en) * 2015-12-21 2019-09-24 Microsemi Solutions (U.S.), Inc. Apparatus and method for transferring data and commands in a memory management environment
CN107209644B (zh) * 2015-12-28 2020-04-28 华为技术有限公司 一种数据处理方法以及NVMe存储器
US10509729B2 (en) * 2016-01-13 2019-12-17 Intel Corporation Address translation for scalable virtualization of input/output devices
US11163597B2 (en) * 2016-01-20 2021-11-02 Unisys Corporation Persistent guest and software-defined storage in computing fabric
US9733834B1 (en) * 2016-01-28 2017-08-15 Weka.IO Ltd. Congestion mitigation in a distributed storage system
US10769098B2 (en) * 2016-04-04 2020-09-08 Marvell Asia Pte, Ltd. Methods and systems for accessing host memory through non-volatile memory over fabric bridging with direct target access
US10430336B2 (en) * 2017-04-24 2019-10-01 Exten Technologies, Inc. Lock-free raid implementation in multi-queue architecture
CN110235098B (zh) * 2017-12-26 2021-06-22 华为技术有限公司 存储系统访问方法及装置
US11509606B2 (en) * 2018-06-29 2022-11-22 Intel Corporation Offload of storage node scale-out management to a smart network interface controller
US10956336B2 (en) * 2018-07-20 2021-03-23 International Business Machines Corporation Efficient silent data transmission between computer servers
US10620868B1 (en) * 2019-03-22 2020-04-14 Hitachi, Ltd. Storage system and data transfer method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105556930A (zh) * 2013-06-26 2016-05-04 科内克斯实验室公司 针对远程存储器访问的nvm express控制器
US20160077976A1 (en) * 2014-05-27 2016-03-17 Mellanox Technologies Ltd. Address translation services for direct accessing of local memory over a network fabric
US20160232973A1 (en) * 2015-02-11 2016-08-11 Won-Taeck JUNG Nonvolatile memory and storage device including nonvolatile memory
WO2016196766A2 (en) * 2015-06-03 2016-12-08 Diamanti, Inc. Enabling use of non-volatile media - express (nvme) over a network
CN106326134A (zh) * 2015-06-30 2017-01-11 华为技术有限公司 Ftl地址映射的方法及装置
CN106354615A (zh) * 2015-07-21 2017-01-25 北京忆恒创源科技有限公司 固态硬盘日志生成方法及其装置
CN106599701A (zh) * 2016-12-06 2017-04-26 华为技术有限公司 一种硬盘加密方法、硬盘及硬盘加密设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3525080A4 *

Also Published As

Publication number Publication date
CN110235098B (zh) 2021-06-22
US20220382685A1 (en) 2022-12-01
EP3525080A1 (en) 2019-08-14
CN110235098A (zh) 2019-09-13
US20200285591A1 (en) 2020-09-10
US11436157B2 (en) 2022-09-06
EP3525080A4 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
WO2019127018A1 (zh) 存储系统访问方法及装置
US10459649B2 (en) Host side deduplication
CN113485636B (zh) 一种数据访问方法、装置和系统
US11321021B2 (en) Method and apparatus of managing mapping relationship between storage identifier and start address of queue of storage device corresponding to the storage identifier
US11262916B2 (en) Distributed storage system, data processing method, and storage node
US11314454B2 (en) Method and apparatus for managing storage device in storage system
US20190114076A1 (en) Method and Apparatus for Storing Data in Distributed Block Storage System, and Computer Readable Storage Medium
US11775194B2 (en) Data storage method and apparatus in distributed storage system, and computer program product
US11151048B2 (en) Host-based read performance optimization of a content addressable storage system
US20210311654A1 (en) Distributed Storage System and Computer Program Product
US11947419B2 (en) Storage device with data deduplication, operation method of storage device, and operation method of storage server
WO2016065610A1 (zh) 访问文件的方法、分布式存储系统和存储节点
WO2017177400A1 (zh) 一种数据处理方法及系统
WO2016065613A1 (zh) 访问文件的方法、分布式存储系统和网络设备
US9501290B1 (en) Techniques for generating unique identifiers

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017898345

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017898345

Country of ref document: EP

Effective date: 20180907

NENP Non-entry into the national phase

Ref country code: DE