CN112615917B - 存储系统中存储设备的管理方法及存储系统 - Google Patents
存储系统中存储设备的管理方法及存储系统 Download PDFInfo
- Publication number
- CN112615917B CN112615917B CN202011475355.8A CN202011475355A CN112615917B CN 112615917 B CN112615917 B CN 112615917B CN 202011475355 A CN202011475355 A CN 202011475355A CN 112615917 B CN112615917 B CN 112615917B
- Authority
- CN
- China
- Prior art keywords
- storage
- address
- storage device
- queue
- storage node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007726 management method Methods 0.000 title abstract description 120
- 238000013507 mapping Methods 0.000 claims description 82
- 238000000034 method Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 17
- 238000005192 partition Methods 0.000 description 35
- 230000004044 response Effects 0.000 description 25
- 239000012634 fragment Substances 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 12
- 101150005267 Add1 gene Proteins 0.000 description 11
- 238000001514 detection method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 101100108191 Vibrio parahaemolyticus serotype O3:K6 (strain RIMD 2210633) add gene Proteins 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- -1 e.g. Proteins 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0659—Command handling arrangements, e.g. command buffers, queues, command scheduling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0688—Non-volatile semiconductor memory arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/65—Details of virtual memory and virtual address translation
- G06F2212/657—Virtual address space management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本方案公开了一种存储系统中存储设备的管理方法,客户端可以根据获取访问请求指向的NVMe存储设备的队列的起始地址以及访问请求指向的NVMe存储设备的逻辑地址,向NVMe存储设备所在的存储节点发送远程直接内存访问命令,从而充分发挥了NVMe存储设备的性能,提高了存储系统的写性能。
Description
本案是专利申请号为201780002717.1,申请日为2017年12月26日,发明名称为“存储系统中存储设备的管理方法及装置”的分案申请。
技术领域
本发明涉及信息技术领域,尤其涉及一种存储系统中存储设备的管理方法及装置。
背景技术
随着非易失性内存高速(Non-volatile Memory Express,NVMe)接口规范的发展,支持NVMe接口规范的存储设备(以下简称为NVMe存储设备)应用于分布式存储系统中。分布式存储系统中,通常包含多个存储节点,每一个存储节点包含一个或多个支持NVMe接口规范的存储设备。客户端访问分布式存储系统中的存储设备。首先客户端需要确定处理访问请求的存储节点,与存储节点建立通信,存储节点接收访问请求,存储节点的中央处理单元(Central Processing Unit,CPU)解析访问请求得到访问命令,将访问请求中的地址转化为NVMe存储设备的存储地址,确定访问请求对应的NVMe存储设备,将NVMe存储设备的存储地址和访问命令发送给对应的NVMe存储设备,上述操作过程与访问传统的非NVMe接口规范的存储设备流程相同,无法充分利用NVMe存储设备的性能。
发明内容
申请提供了一种存储系统中存储设备的管理方法及装置。
本申请的第一方面提供了存储系统中存储设备的管理方法,在存储系统包含管理服务器和第一存储节点,其中,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;管理服务器从第一存储节点获取第一队列消息;第一队列消息包含第一存储节点的标识和第一内存地址;管理服务器建立第一存储节点的标识和第一内存地址之间的第一映射关系;管理服务器接收来自客户端的查询请求;查询请求包含第一存储节点的标识;管理服务器根据第一映射关系向客户端发送查询请求响应;查询请求响应包含第一内存地址。管理服务器建立存储节点的标识和队列的起始地址的映射关系,客户端可以从管理服务器获得NVMe存储设备队列的信息,从而可以直接访问NVMe存储设备,不需要存储节点CPU的参与处理访问请求,充分发挥了NVMe存储设备的性能,提高了存储系统的写性能。
结合本申请第一方面,在第一种可能实现方式中,还包括,管理服务器建立锁定标识,锁定标识用于锁定第一内存地址。从而管理服务器可以记录队列的分配情况。进一步的,管理服务器可以根据锁定信息统计NVMe存储设备的负载。进一步的,管理服务器还可以记录获得队列的客户端的标识。
结合本申请第一方面,在第二种可能实现方式中,存储系统还包括第二存储节点,第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器从第二存储节点获取第二存储设备的第二队列消息;第二队列消息包含第二存储节点的标识和第二内存地址;管理服务器建立第二存储节点的标识和第二内存地址的第二映射关系。管理服务器可以管理存储队列中所有存储节点包含的NVMe设备的队列信息。
结合本申请第一方面,或第一方面的第一种或第二种可能实现方式,在第三种可能的实现方式中,管理服务器从第一存储节点获得第三队列消息;第三队列消息包含第一存储节点的标识和第三内存地址;管理服务器建立第一存储节点的标识和第三内存地址的第三映射关系;其中,NVMe接口规范的第三存储设备的队列的起始地址位于第一内存中的第三内存地址,第三存储设备为第一存储节点新增加的存储设备。
结合本申请第一方面的第二或第三种可能的实现方式,在第四种可能的实现方式中,管理服务器从第二存储节点接收队列消息删除消息;队列消息删除消息包含第二内存地址;管理服务器删除第二映射关系。
结合本申请第一方面,在第五种可能的实现方式中,管理服务器检测到与第一存储节点通信中断,管理服务器删除第一映射关系。
结合本申请第一方面的第五种可能的实现方式,在第六种可能的实现方式中,管理服务器检测到与第一存储节点通信中断,具体包括:管理服务器在预定的时间内未收到第一存储节点的心跳。
本申请的第二方面提供了存储系统中存储设备的管理方法,存储系统包含管理服务器和存储节点,其中,存储节点包含NVMe接口规范的第一存储设备;存储节点在内存中为第一存储设备的队列的起始地址分配第一内存地址;存储节点向管理服务器发送第一队列消息;第一队列消息包含存储节点的标识和第一内存地址。存储节点将存储设备的队列信息发送给管理服务器,从而使客户端能够使用队列信息直接访问存储设备。
结合本申请第二方面,在第一种可能实现方式中,存储节点检测到第一存储设备安装到存储节点。
结合本申请第二方面或第二方面的第一种可能实现方式,在第二种可能的实现方式中,存储节点检测述第一存储设备从存储节点中移除;存储节点向管理服务器发送队列消息删除消息;队列消息删除消息包含第一内存地址。
本申请第三方面提供了一种存储系统中存储设备的管理方法,其中存储系统包含管理服务器和第一存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;管理服务器存储第一存储节点的标识和第一内存地址的第一映射关系;客户端向管理服务器发送查询请求;查询请求包含所述第一存储节点的标识;客户端接收来自管理服务器查询请求响应;查询请求响应包含管理服务器根据第一映射关系确定的第一内存地址。客户端查询管理服务器,可以获得存储节点中NVMe存储设备的队列信息,从而能够根据队列信息直接访问NVMe存储设备,不需要存储节点CPU参与,充分发挥了NVMe存储设备的性能。
结合本申请第三方面,在第一种可能实现方式中,客户端向第一存储节点发送第一远程直接内存访问请求;第一远程直接内存访问请求包含第一内存地址。
结合本申请第三方面的第一种可能实现方式,在第二种可能实现方式中,存储系统还包含第二存储节点,第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器存储第二存储节点的标识和所述第二内存地址的第二映射关系;查询请求包含所述第二存储节点的标识;查询请求响应包含管理服务器根据第二映射关系确定的所述第二内存地址;其中,第一存储设备和第二存储设备构成分条关系;客户端向第二存储节点发送第二远程直接内存访问请求;第二远程直接内存访问请求包含所述第二内存地址。
结合本申请第一方面或第一方面的第一至六任一种可能的实现方式中的存储系统中存储设备的管理方法,本申请第四方面还提供了一种管理服务器,管理服务器包含多个单元,用于执行本申请第一方面或第一方面的第一至六任一种可能的实现方式。
结合用于本申请第二方面或第二方面的第一至二任一种可能的实现方式中的存储系统中存储设备的管理方法,本申请第五方面还提供了一种存储节点,存储节点包含多个单元,用于执行本申请第二方面或第二方面的第一至二任一种可能的实现方式。
结合用于本申请第三方面或第三方面的第一至二任一种可能的实现方式中的存储系统中存储设备的管理方法,本申请第六方面还提供了一种客户端,客户端包含多个单元,用于执行本申请第三方面或第三方面的第一至二任一种可能的实现方式。
本申请第七方面还提供了一种管理服务器,应用于本申请第一方面或第一方面的第一至六任一种可能的实现方式中的存储系统,管理服务器包含处理器和接口,处理器与接口通信,处理器用于执行本申请第一方面或第一方面的第一至六任一种可能的实现方式。
本申请第八方面还提供了一种存储节点,应用于本申请第二方面或第二方面的第一至二任一种可能的实现方式中的存储系统,存储节点包含处理器和接口,处理器与接口通信,处理器用于执行用于执行本申请第二方面或第二方面的第一至二任一种可能的实现方式。
本申请第九方面还提供了一种客户端,应用于本申请第三方面或第三方面的第一至二任一种可能的实现方式中的存储系统,客户端包含处理器和接口,处理器与接口通信,处理器用于执行用于执行本申请第三方面或第三方面的第一至二任一种可能的实现方式。
相应地,本申请第十方面还提供了计算机可读存储介质和计算机程序产品,计算机可读存储介质和计算机程序产品中包含计算机指令用于实现本申请第一方面各方案。
相应地,本申请第十一方面还提供了计算机可读存储介质和计算机程序产品,计算机可读存储介质和计算机程序产品中包含计算机指令用于实现本申请第二方面各方案。
相应地,本申请第十二方面还提供了计算机可读存储介质和计算机程序产品,计算机可读存储介质和计算机程序产品中包含计算机指令用于实现本申请第三方面各方案。
附图说明
图1为本发明实施例分布式块存储系统示意图;
图2为本发明实施例存储节点结构示意图;
图3为本发明实施例分区视图;
图4为本发明实施例分区视图;
图5为本发明实施例NVMe存储设备示意图;
图6为本发明实施例存储节点中NVMe队列示意图;
图7为本发明实施例存储节点发送队列信息流程图;
图8为本发明实施例管理服务器存储NVMe存储设备队列信息示意图;
图9为本发明实施例管理服务器与存储节点通信示意图;
图10为本发明实施例管理服务器存储NVMe存储设备队列信息示意图;
图11为本发明实施例管理服务器存储NVMe存储设备队列信息示意图;
图12为本发明实施例存储节点存储NVMe存储设备队列信息示意图;
图13为本发明实施例访问请求处理流程示意图;
图14为本发明实施例分布式块存储系统示意图;
图15为本发明实施例客户端向存储类内存设备发送RDMA写请求示意图;
图16为本发明实施例存储节点结构示意图;
图17为本发明实施例客户端结构示意图;
图18为本发明实施例管理服务器结构示意图;
图19为本发明实施例管理服务器结构示意图;
图20为本发明实施例客户端结构示意图;
图21为本发明实施例客户端结构示意图。
本发明实施例
本发明实施例中的存储系统可以应用到存储阵列(如华为的/>18000系列,/>V3系列),分布式文件存储系统(如华为/>的/>9000系列),分布式块存储系统(如华为/>的/>系列)、分布式对象存储系统或支持日志结构(Log-Structure)接口的分布式存储系统等。
如图1所示,本发明实施例中的分布式块存储系统,如华为的/>系列。分布式块存储系统包括多个存储节点,如存储节点1、存储节点2、存储节点3、存储节点4、存储节点5和存储节点6,存储节点间通过InfiniBand或以太网络等互相通信。在实际应用当中,分布式块存储系统中存储节点的数量可以根据实际需求增加,本发明实施例对此不作限定。每一个存储节点包含一个或多个NVMe存储设备,例如NVMe接口规范的固态硬盘(Solid State Disk,SSD)。本发明实施例中NVMe存储设备不限于SSD。本发明实施例中存储节点包含NVMe存储设备具体可能为存储节点内部包含NVMe存储设备,NVMe存储设备也可以是以硬盘簇(Just a Bunch Of Disks,JBOD)的形式外置于存储节点。
存储节点包含如图2所示的结构。如图2所示,存储节点包含中央处理单元(Central Processing Unit,CPU)201、内存202、接口卡203。内存202中存储计算机指令,CPU201执行内存202中的程序指令执行相应的操作。接卡口303可以为网络接口卡(NetworkInterface Card,NIC)、Infiniband协议接口卡等。另外,为节省CPU201的计算资源,现场可编程门阵列(Field Programmable Gate Array,FPGA)或其他硬件也可以代替CPU301执行上述相应的操作,或者,FPGA或其他硬件与CPU201共同执行上述相应的操作。为方便描述,本发明实施例将CPU201与内存202、FPGA及其他替代CPU201的硬件或FPGA及其他替代CPU201的硬件与CPU201的组合统称为处理器。
在图2所示的结构中,客户端可以是独立于图2所示的设备,例如服务器、移动设备等,也可以是虚拟机(Virtual Machine,VM)。客户端运行应用程序,其中,应用程序可以为VM或容器,也可以为某一个特定应用,如办公软件等。客户端向分布式块存储系统写入数据或从分布式块设备存储中读取数据。客户端的结构可参考图2及相关描述。
存储节点的内存202中加载分布式块存储系统程序,CPU201执行内存202中的分布式块存储系统程序,向客户端提供块协议访问接口,为客户端提供分布式块存储接入点服务,使客户端访问分布式块存储系统中存储资源池中的存储资源。通常,该块协议访问接口用于向客户端提供逻辑单元。示例性的,分布式块存储系统初始化时,将哈希空间(如0~2^32,)划分为N等份,每1等份是1个分区(Partition),这N等份按照硬盘数量进行均分。例如,分布式块存储系统中N默认为3600,即分区分别为P1,P2,P3…P3600。假设当前分布式块存储系统有18块NVMe存储设备,则每块NVMe存储设备承载200个分区。分区P包含分别分布在M个存储节点上的共M个NVMe存储设备,分区中M个NVMe存储设备构成分条关系。分条关系可以为多副本或纠删码(Erasure Coding,EC)。分区与NVMe存储设备对应关系,即分区与分区包含的NVMe存储设备的映射关系,也称为分区视图,如图3所示,以分区包含4个NVMe存储设备为例,分区视图为“P2-(存储节点N1-NVMe存储设备1)-(存储节点N2-NVMe存储设备2)-(存储节点N3-NVMe存储设备3)-(存储节点N4-NVMe存储设备4)”。即NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成分条关系。当每个存储节点只包含一个NVMe存储设备,图3所示的分区视图也可以表示为P2-存储节点N1-存储节点N2-存储节点N3-存储节点N4。通常分区的划分和分区视图的分配由管理服务器实现。管理服务器会在分布式块存储系统初始化时分配好分区视图,后续会随着分布式块存储系统中NVMe存储设备数量的变化进行调整。其中,管理服务器的结构可参考图2所示的结构。为方便客户端访问,减少管理服务器访问压力,其中一种实现,管理服务器会将分区视图发送给客户端。
分布式块存储系统为客户端提供卷作为存储资源。具体实现,分布式块存储系统将NVMe存储设备的逻辑地址划分资源池,为客户端提供数据访问,客户端接收的访问请求中的存储地址映射到NVMe存储设备的逻辑地址,即客户端访问请求中的存储地址所在的数据块映射到NVMe存储设备提供的逻辑地址。客户端访问卷的访问请求,如写请求,写请求携带存储地址和数据。在分布式块存储系统中,存储地址为逻辑块地址(Logical BlockAddress,LBA)。根据写请求中的存储地址确定写请求对应的数据块。客户端根据数据块查询管理服务器中的分区视图或客户端本地保存的分区视图,确定为数据块分配存储空间的NVMe存储设备。例如,假设数据块大小为1024字节,卷中数据块编号从0开始。写请求包含的存储地址为写起始地址为1032字节,大小为64字节,写请求位于编号为1的数据块中(1032/1024),数据块为内偏移为8(1032%1024)。
例如,如图3所示,第1个数据块分布在分区P2,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成分条关系为多副本关系。客户端查询分区视图,确定写请求包含的存储地址映射到NVMe设备的逻辑地址,例如,存储地址映射到NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4的逻辑地址分别为L1、L2、L3和L4。具体实现,客户端根据分区视图查询分区视图中的主存储节点,如存储节点N1,存储节点N1向客户端提供L1、L2、L3和L4。客户端确定提供逻辑地址的NVMe存储设备,获得NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4的队列的起始地址在内存中的内存地址(以下简称队列的起始地址),客户端获得NVMe存储设备的队列的起始地址在内存中的内存地址的具体实现请见下面描述。客户端分别向NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4发送RDMA写请求。其中,客户端向NVMe存储设备1发送的RDMA写请求中包含逻辑地址L1和NVMe存储设备1的队列的起始地址,还包含客户端接收的写请求中写入L1的数据;客户端向NVMe存储设备2发送的RDMA写请求中包含逻辑地址L2和NVMe存储设备2的队列的起始地址,还包含客户端接收的写请求中写入L2的数据;客户端向NVMe存储设备3发送的RDMA写请求中包含逻辑地址L3和NVMe存储设备3的队列的起始地址,还包含客户端接收的写请求中写入L3的数据;客户端向NVMe存储设备4发送的RDMA写请求中包含逻辑地址L4和NVMe存储设备4的队列的起始地址,还包含客户端接收的写请求中写入L4的数据。具体实现,客户端分别向NVMe存储设备1所在的存储节点1的接口卡、NVMe存储设备2所在的存储节点2的接口卡、NVMe存储设备3所在的存储节点3的接口卡和NVMe存储设备4所在的存储节点4的接口卡发送RDMA写请求。
另一种实现,如图4所示,分区视图为P2-(存储节点N1-NVMe存储设备1)-(存储节点N2-NVMe存储设备2)-(存储节点N3-NVMe存储设备3)-(存储节点N4-NVMe存储设备4)-(存储节点N5-NVMe存储设备5)-(存储节点N6-NVMe存储设备6)。第1个数据块分布在分区P2,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3、NVMe存储设备4、NVMe存储设备5和NVMe存储设备6构成EC关系,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4为存储数据分片的存储设备,NVMe存储设备5和NVMe存储设备6为存储校验分片的存储设备。EC分条的长度为12千字节(Kilobyte,KB),则数据分片和校验分片的长度均为2KB。例如,第1个分条中,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4分别存储存储地址为0~2KB-1,2KB~4KB-1,4KB~6KB-1,6KB~8KB-1的数据分片,NVMe存储设备5和NVMe存储设备6分别存储第1分条的校验分片。在该分区的第2个分条中,NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4分别存储存储地址为8KB~10KB-1,10KB~12KB-1,12KB~14KB-1,14KB~16KB-1的数据分片,NVMe存储设备5和NVMe存储设备6分别存储第2分条的校验分片。例如,客户端接收写请求,写请求中包含的存储地址SA为0~8KB-1。客户端查询分区视图,确定存储地址为0~2KB-1的第1数据分片对应的NVMe存储设备1的逻辑地址为L1,确定存储地址为2KB~4KB-1的第2数据分片对应的NVMe存储设备2的逻辑地址为L2,确定存储地址为4KB~6KB-1的第3数据分片对应的NVMe存储设备3的逻辑地址为L3,确定存储地址为6KB~8KB-1的第4数据分片对应的NVMe存储设备4的逻辑地址为L4,确定第1分条的第1校验分片对应的NVMe存储设备5的逻辑地址为L5,确定第1分条的第2校验分片对应的NVMe存储设备6的逻辑地址为L6。客户端查询分区视图的具体实现可以参见本发明实施例前面的描述,在此不再赘述。本发明实施例中,存储地址SA分别映射到L1、L2、L3、L4、L5和L6。客户端确定提供逻辑地址的NVMe设备,客户端获得NVMe存储设备1、NVMe存储设备2、NVMe存储设备3、NVMe存储设备4、NVMe存储设备5和NVMe存储设备6的队列的起始地址,客户端获得NVMe存储设备的队列的起始地址的具体实现请见下面描述。客户端分别向NVMe存储设备1、NVMe存储设备2、NVMe存储设备3、NVMe存储设备4、NVMe存储设备5和NVMe存储设备6发送RDMA请求。其中,客户端向NVMe存储设备1发送的RDMA写请求中包含逻辑地址L1和NVMe存储设备1的队列的起始地址,还包含客户端接收的写请求中写入L1的第1数据分片;客户端向NVMe存储设备2发送的RDMA写请求中包含逻辑地址L2和NVMe存储设备2的队列的起始地址,还包含客户端接收的写请求中写入L2的第2数据分片;客户端向NVMe存储设备3发送的RDMA写请求中包含逻辑地址L3和NVMe存储设备3的队列的起始地址,还包含客户端接收的写请求中写入L3的第3数据分片;客户端向NVMe存储设备4发送的RDMA写请求中包含逻辑地址L4和NVMe存储设备4的队列的起始地址,还包含客户端接收的写请求中写入L4的第4数据分片;客户端向NVMe存储设备5发送的RDMA写请求中包含逻辑地址L5和NVMe存储设备5的队列的起始地址,还包含第1校验分片;客户端向NVMe存储设备6发送的RDMA写请求中包含逻辑地址L6和NVMe存储设备6的队列的起始地址,还包含第2校验分片。
在上述实现方式中,客户端使用RDMA写请求将数据直接写入NVMe存储设备在存储节点的内存中队列的起始地址,不需要存储节点CPU的参与处理客户端发送的写请求,充分发挥了NVMe存储设备的性能,提高了存储系统的写性能。
另一种实现,分布式块存储系统为客户端提供卷作为存储资源。具体实现,分布式块存储系统将NVMe存储设备的逻辑地址划分资源池,为客户端提供数据访问,即客户端访问请求中的存储地址所在的数据块映射到NVMe存储设备提供的逻辑地址,不需要分区视图。数据块与NVMe存储设备提供的逻辑地址的映射可以表示为数据块-----NVMe存储设备----逻辑地址。
为进一步描述本发明实施例,如图5所示,NVMe存储设备包含NVMe控制器501和存储介质502。NVMe规范中定义了三个关键组件用于访问请求和数据的处理:提交队列(Submission Queue,SQ)、完成队列(Completion Queue,CQ)和门铃寄存器(DoorbellRegister,DB)。SQ用于存储客户端发送的访问请求,CQ用于存储NVMe存储设备处理访问请求的结果。SQ和CQ以队列对的形式存在。如图6所示,SQ和CQ位于存储节点的内存202中,本发明实施例称一对SQ和CQ为队列。NVMe存储设备用于处理访问请求的队列的数量最大可以达到65535个。SQ和CQ都是环形队列,NVMe控制器从SQ队列的头获取待处理的访问请求,SQ尾用于存储客户端最新发送的访问请求。客户端从CQ的头获取访问结果,CQ队列的尾用于存储NVMe控制器最新处理访问请求的结果。客户端使用RDMA请求访问NVMe存储设备,需要获取NVMe存储设备的SQ和CQ队列的尾,也就是SQ和CQ的起始地址分别在内存202中的内存地址。在NVM控制器中有寄存器,用于记录SQ和CQ的头尾位置,每个SQ或CQ,都有两个对应的寄存器,即头寄存器和尾寄存器。通常头寄存器也称为头门铃(DoorBell,DB),尾寄存器也称为尾DB。关于DB的作用将在后面实施例中具描述。
NVMe存储设备连接到存储节点,存储节点启动后,NVMe存储设备向存储节点进行注册,如图7所示,存储节点执行如下流程:
步骤701:存储节点在内存202中为队列分配内存地址。
存储节点在内存202中为队列分配内存地址,包含为队列的起始地址在内存中分配内存地址。
步骤702:存储节点向管理服务器发送队列消息;队列消息包含存储节点的标识和队列的起始地址。
存储节点在本地建立存储节点的标识和队列的起始地址的映射关系。存储节点可以包含一个或多个NVMe存储设备,队列消息中还可以包含NVMe存储设备的标识,以区分存储节点的不同NVMe存储设备的队列的起始地址。当存储节点只包含一个NVMe存储设备时,队列消息中可以只包含存储节点的标识和队列的起始地址。
在存储节点运行过程中,新的NVMe存储设备连接到存储节点,存储节点也执行图7所示的流程。
进一步的,存储节点检测到NVMe存储设备从存储节点移除,存储节点向管理服务器发送队列信息删除消息,队列信息删除消息包含队列的起始地址。NVMe存储设备从存储节点移除,具体可以包含物理移除或NVMe存储设备故障。存储节点可以检测NVMe存储设备的驱动以确定NVMe存储设备是否从存储节点移除。
管理服务器从存储节点获取队列信息。具体实现,可以由管理服务器向存储节点发送请求用于指示存储节点上报队列信息,或者存储节点主动向管理服务器发送队列信息。其中,队列信息包含存储节点的标识和存储节点为NVMe存储设备的队列分配的队列的起始地址。管理服务器建立存储节点的标识和队列的起始地址的映射关系。通常,存储节点包含多个NVMe存储设备,为区分同一个存储节点不同NVMe存储设备的队列的起始地址,队列信息还包含NVMe存储设备的标识,管理服务器建立的映射关系中还包含NVMe存储设备的标识。一种实现方式,上述映射关系作为表项存储在如图8所示的表中。换句话说,映射关系可以用如图8所示的表项结构,或其他可体现标识和地址之间关系的数据结构储存。其中,N1、N2和N3分别表示存储节点的标识,D11和D12分别表示存储节点1中的NVMe存储设备的标识,Add1表示标识为D11的NVMe存储设备的队列的起始地址。因为标识为D11的NVMe存储设备可以有多个队列,其中一种实现,Add1表示NVMe存储设备的SQ的起始地址,另一种实现,Add1还可以表示NVMe存储设备的队列的起始地址(SQ的起始地址和CQ的起始地址)。图8所示的表中其他项的含义可参考上述的表述。存储节点的标识和队列的起始地址的映射关系作为图8所示的表的表项。在存储系统中,每一个存储节点有一个唯一标识,该标识可以是管理服务器为每一个存储节点分配的编号,也可以是存储节点的硬件信息,如接口卡硬件信息,还可以是存储节点的地址信息,如互联网协议地址(Internet Protocol,IP)地址。NVMe存储设备的标识可以是NVMe存储设备的硬件信息,也可以是NVMe存储设备所在的存储节点中的内部编号,比如,存储节点1中的NVMe存储设备可以标识为D11和D12,或者表示为N1+NVMe设备编号,例如,N1+1,N1+2等。管理服务器建立存储节点的标识和队列的起始地址的映射关系,客户端可以从管理服务器获得NVMe存储设备队列的信息,从而可以直接访问NVMe存储设备,不需要存储节点CPU的参与,充分发挥了NVMe存储设备的性能。
在一种实现方式中,如图9所示,管理服务器与存储节点通信,确定存储节点是否正常,如通过定期接收来自存储节点的心跳确定存储节点是否正常。例如管理服务器在预定的时间内未收到存储节点的心跳,管理服务器判断与存储节点通信中断,存储节点发生故障。例如,管理服务器未在预定的时间内收到图9所示的存储节点1发送的心跳,管理服务器判断与存储节点1的通信中断,存储节点1发生故障。结合图8,管理服务器删除表中记录的存储节点1相关的表项,即映射信息,删除存储节点1相关的表项后,表如图10所示。当存储节点1恢复后,执行图7所示的流程。
存储节点中NVMe存储设备移除,管理服务器接收来自存储节点的队列信息删除消息,队列信息删除消息包含队列的起始地址。例如,标识为D11的NVMe存储设备从存储接节点1中移除,存储节点1向管理服务器发送队列信息删除消息,如图11所示,管理服务器删除图8所示的标识为D11的所有映射关系。另一种实现,存储节点包含多个NVMe存储设备,为区分同一个存储节点不同NVMe存储设备的队列的起始地址,队列信息还包含NVMe存储设备的标识,管理服务器建立的映射关系中还包含NVMe存储设备的标识。存储节点向管理服务器发送的队列信息删除消息包含NVMe存储设备的标识,管理服务器删除包含该NVMe存储设备的标识的映射关系。另一种实现,当新的NVMe存储设备安装到存储节点1时,存储节点1在内存中为新的NVMe存储设备的队列分配内存地址,执行图7所示流程,在此不再赘述。
本发明实施例中,存储节点本地存储图12所示的表,用于记录本存储节点中NVMe存储设备的标识与NVMe存储设备的队列的起始地址的映射关系。关于图12中的NVMe存储设备的标识的描述可以参考图8到图11的描述,在此不再赘述。本发明实施例图8至图12的表作为一种示意性的数据结构,具体实现可以有多种方式,例如以索引的方式存在,进一步的,可以以多级索引方式存在,例如在图8至图11所示的表中,第一级索引为存储节点标识,用于查找对应的NVMe存储设备的标识;第二级索引为NVMe存储设备的标识,用于查找存储NVMe存储设备的队列的起始地址。
如前所述,客户端访问存储系统,根据访问请求中包含的存储地址确定访问地址对应的NVMe存储设备的逻辑地址,例如客户端发送写请求。具体实现可以访问客户端保存的分区视图或查询管理服务器中的分区视图。例如,客户端确定存储地址对应存储节点1中的NVMe存储设备1的逻辑地址L1、存储节点2中的NVMe存储设备2的逻辑地址L2、存储节点3中的NVMe存储设备3的逻辑地址L3和存储节点4中的NVMe存储设备4的逻辑地址L4,即NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成多副本的分条关系。客户端根据为获取提供逻辑地址的NVMe存储设备的队列的起始地址,向管理服务器发送查询请求,查询请求中包含存储节点的标识。当存储节点包含多个NVMe存储设备时,查询请求中还包括NVMe存储设备的标识。例如查询请求中分别包含以下几组标识:存储节点1的标识N1和NVMe存储设备1的标识D11,存储节点2的标识N2和NVMe存储设备2的标识D21,存储节点3的标识N3和NVMe存储设备3的标识D31,存储节点4的标识N4和NVMe存储设备4的标识D41。结合图8,管理服务器接收来自客户端的查询请求,查询表项中记录的映射关系,向客户端发送查询请求响应。响应中包含存储节点1的NVMe存储设备1的队列的起始地址Add1、存储节点2的NVMe存储设备2的队列的起始地址Addk、存储节点3的NVMe存储设备3的队列的起始地址Addy、存储节点4的NVMe存储设备4的队列的起始地址Addz。本发明实施例中,管理服务器向客户端发送的查询请求响应中包含的队列的起始地址包含SQ的起始地址,还可以包含CQ的起始地址。客户端与管理服务器通信,可以一次获取多个NVMe存储设备队列的起始地址,减少了通信交互次数。
管理服务器建立锁定标识,锁定标识用于锁定起始地址Add1、Addk、Addy和Addz,一旦存储队列的起始地址被锁定,表示该队列已经被分配给客户端。因此,也可以表述为锁定标识用于锁定存储节点的标识和队列的起始地址的映射关系。具体实现,锁定标识可以是一个标记位,例如用0表示锁定,1表示未锁定。锁定标识可以记录在图8所示的表项中。进一步的,管理服务器还可以记录获得队列的客户端的标识。该标识可以是管理服务器为每一个客户端分配的编号,也可以是客户端的硬件信息,如接口卡硬件信息,还可以是客户端的地址信息,如IP地址。
在本发明实施例中,管理服务器可以根据NVMe存储设备的队列的起始地址的锁定信息统计NVMe存储设备的负载,根据NVMe存储设备的负载动态决定存储地址与NVMe存储设备的逻辑地址的映射关系,从而实现存储系统的负载均衡。根据NVMe存储设备的负载动态决定存储地址与NVMe存储设备的逻辑地址的映射关系是指存储地址与NVMe存储设备的逻辑地址映射关系不是在存储系统初始化时绑定的,而是在客户端接收到写请求时,确定写请求中的存储地址映射的NVMe存储设备的逻辑地址。其中一种实现,管理服务器在客户端查询写请求中的存储地址映射的NVMe存储地址时,管理服务器根据存储系统中NVMe存储设备的负载确定NVMe存储设备的逻辑地址;另一种实现,管理服务器根据存储系统中NVMe存储设备的负载确定分区视图,如分区与存储节点的映射关系。具体的,NVMe存储设备的负载可以根据NVMe存储设备的队列的起始地址的锁定信息统计。
客户端分别向存储节点1、存储节点2、存储节点3和存储节点4发送RDMA写请求。其中,发送给存储节点1的RDMA写请求中包含L1和Add1;发送给存储节点2的RDMA写请求中包含L2和Addk;发送给存储节点3的RDMA写请求中包含L3和Addy;发送给存储节点4的RDMA写请求中包含L4和Addz。关于客户端分别向存储节点1、存储节点2、存储节点3和存储节点4发送RDMA写请求,可以参考本发明实施例前面的描述。本发明实施例以客户端向存储节点1发送RDMA写请求为例进行描述。客户端向存储节点1的接口卡发送RDMA写请求,存储节点1的接口卡接收RDMA写请求,将逻辑地址L1和客户端接收的写请求中写入L1的数据发送到存储节点1的内存地址Add1。在图13所示,SQ和CQ是空的,即初始的头地址和尾地址相同,CQ的初始的头地址和尾地址相同。具体操作过程如图13所示:
①客户端向SQ的尾发送写请求。
客户端向存储节点1发送RDMA写请求,RDMA写请求中包含L1和队列的起始地址Add1,还包含客户端接收的写请求中写入L1的数据。存储节点1的接口卡接收到RDMA写请求,获取L1和Add1,例如Add1为0。如前所述,本发明实施例中,队列的起始地址Add1包含SQ的起始地址,另一种实现,队列的起始地址Add1还可以包含CQ的起始地址,SQ尾DB初始值为0,CQ尾DB初始值为0。存储节点1的接口卡将L1和客户端接收的写请求中写入L1的数据发送到SQ的起始地址。RDMA写请求为1个命令。
②客户端更新SQ的尾DB。
客户端向SQ写入1个RDMA写请求,SQ的尾变为1。客户端向SQ写入1个RDMA写请求命令后,更新NVMe控制器中的SQ尾DB,值为1。客户端更新SQ尾DB的同时,也是在通知NVMe控制器有写请求需要执行。
③NVMe控制器从SQ队列获取写请求并执行写请求。
客户端更新SQ尾DB,NVMe控制器收到通知,从SQ获取写请求并执行写请求。
④NVMe控制器更新SQ头DB。
NVMe控制器把SQ中的写请求执行完,SQ的头也变为1,NVMe控制器把SQ1的头写入到SQ头DB。
⑤NVMe控制器向CQ写入写请求执行结果。
NVMe控制器执行写请求,将写请求执行结果写入CQ的尾。
⑥客户端更新CQ的尾DB。
NVMe控制器执行写请求,向CQ尾写入写请求执行结果,更新CQ的尾DB,值为1。
⑦客户端获取写请求执行结果。
具体实现,客户端可以采用轮询的方式,从CQ获取写请求执行结果。
⑧NVMe控制器更新CQ的头DB。
客户端向CQ的头DB中写入CQ的头的地址,值为1。
本发明实施例访问请求处理流程另一种实现方式中,图13中的步骤②和⑥可以也可以由存储节点的接口卡实现。
如图12所示,存储节点记录本存储节点中NVMe存储设备的标识与NVMe存储设备的队列的起始地址的映射关系。客户端访问存储系统,客户端根据访问请求中包含的存储地址确定存储地址对应的NVMe存储设备的逻辑地址,具体实现请参见前面描述。例如,客户端确定存储地址对应存储节点1中的NVMe存储设备1的逻辑地址L1、存储节点2中的NVMe存储设备2的逻辑地址L2、存储节点3中的NVMe存储设备3的逻辑地址L3和存储节点4中的NVMe存储设备4的逻辑地址L4,即NVMe存储设备1、NVMe存储设备2、NVMe存储设备3和NVMe存储设备4构成多副本的分条关系。在另一种实现方式,客户端分别向存储节点1、存储节点2、存储节点3和存储节点4发送查询请求,查询请求中包含NVMe存储设备的标识。结合图12,存储节点1接收来自客户端的查询请求,查询表项中记录的映射关系,向客户端发送查询请求响应。响应中包含存储节点1的NVMe存储设备1的队列的起始地址Add1。存储节点2、存储节点3和存储节点4分别根据查询请求执行查询操作,向客户端发送查询请求响应。仍以存储节点1为例,存储节点1建立锁定标识,锁定标识用于锁定队列的起始地址Add1。一旦队列的起始地址被锁定,表示该队列已经被分配给客户端。具体实现,锁定标识可以是一个标记位,例如用0表示锁定,1表示未锁定。锁定标识可以记录在图12所示的表项中。在这种实现方式中,客户端向存储节点发送查询请求,可以减少管理服务器的负载。客户端从存储节点接收查询请求响应,执行图13所示的操作。
本发明实施例中另一种实现方式,NVMe存储设备构成EC的分条关系。客户端也可以使用上述两种方式访问NVMe存储设备,在此不再赘述。
本发明实施例中,客户端获得NVMe存储设备队列的起始地址,在释放该NVMe存储设备队列之前,客户端根据接收访问请求的数量以及队列的起始地址,根据NVMe存储设备队列的起始地址的变化,向NVMe存储设备队列发送RDMA访问请求,并从NVMe存储设备的CQ获得访问请求执行结果。
在本发明实施例中,客户端可以直接向存储系统中存储节点的NVMe存储设备发送RDMA请求,不需要存储节点的CPU参与,充分发挥和利用了NVMe存储设备的性能。
在NVMe存储设备应用到本发明实施例的同时,随着存储设备的发展,存储系统采用多种类似存储设备以提升存储系统性能。例如,存储级内存(Storage Class Memory,SCM)的存储设备同时具备持久化和快速字节级访问的特点。目前比较流行的SCM的存储设备主要包含相变存储器(Phase-change Memory,PCM)、阻抗随机存储器(ResistiveRandom-access Memory,ReRAM)、磁性随机存储器(Magnetic Random Access Memory)和碳纳米管随机存储器(Nantero’s CNT Random Access Memory)等。如图14所示,本发明实施例中的分布式块存储系统,每一个存储节点包含一个或多个NVMe存储设备,例如NVMe接口规范的固态硬盘(Solid State Disk,SSD),同时包含一个或多个SCM的存储设备。另一种实现,部分存储节点包含一个或多个NVMe存储设备,部分存储节点包含一个或多个SCM的存储设备。
在图14所示的分布式块存储系中,分布式块存储系统将NVMe存储设备的逻辑地址划分资源池,将SCM的存储设备划分为资源池,客户端接收的访问请求中的存储地址映射到NVMe存储设备提供的逻辑地址,具体实现可参考前面实施例描述。客户端接收的访问请求中的存储地址到存储设备提供的地址的映射方式可以表示为存储地址-----NVMe存储设备----逻辑地址,存储地址---SCM的存储设备---基地址。
基于图14所示的分布式存储系统,数据的多个副本可以存储在不同类型的存储设备上。例如,一个副本存储在SCM的存储设备上,一个或多个副本存储在NVMe存储设备上。或者一个副本存储在SCM的存储设备上,一个副本以EC分条的形式存储在多个NVMe存储设备上。客户端读取数据时,从SCM的存储设备中获取数据,从而提高读性能。
本发明实施例以一个副本存储在SCM的存储设备上,两个副本存储在NVMe存储设备上为例进行描述。客户端接收的写请求中的数据映射到一个SCM的存储设备的基地址和两个NVMe存储设备的逻辑地址。如前面所述,具体实现,写请求中的存储地址到SCM的存储设备提供的基地址映射以及写请求中的存储地址到NVMe存储设备的逻辑地址的映射可以基于图3和图4所示的分区视图,也可以是写请求中的存储地址到SCM的存储设备提供的基地址的直接映射以及写请求中的存储地址与NVMe存储设备的逻辑地址的直接映射。
进一步的,客户端接收访问请求,根据访问请求中的存储地址,确定存储地址映射的SCM的存储设备基地址以及存储地址映射的NVMe存储设备的逻辑地址。本发明实施例中,客户端确定存储地址映射的NVMe存储设备的逻辑地址,后续的访问过程可以参考前面客户端访问NVMe存储设备的过程,在此不再赘述。如图15所示,以副本长度为8字节为例,客户端向SCM的存储设备发送RDMA写请求的过程如下:
①客户端向存储节点发送获取与增加(fetch and add(ptr,8))命令。
其中,fetch and add(ptr,len value)为RDMA原子操作指令,用于获取当前已经分配的存储空间的结束地址以及写入数据长度。len value表示写入数据长度,本发明实施例中当前已经分配的存储空间的结束地址为10,len value为8字节。
②存储节点为客户端分配长度为8字节的存储地址。
存储节点收到fetch and add(ptr,8)命令,将存储地址为11-18预留给客户端。
③存储节点向客户端返回当前已经分配的存储空间的结束地址。
④客户端向存储节点发送RDMA写请求。其中,RDMA请求中包含长度为8字节的数据和当前已经分配的存储空间的结束地址(基地址)为10。
结合图1所示的存储系统,另一种实现方式,存储节点还可以包含机械硬盘,每一个存储节点包含一个或多个NVMe存储设备,例如NVMe接口规范的固态硬盘(Solid StateDisk,SSD),同时包含一个或多个机械硬盘。另一种实现,部分存储节点包含一个或多个NVMe存储设备,部分存储节点包含一个或多个机械硬盘。数据的多个副本可以存储在不同类型的存储设备上。例如,一个副本存储在NVMe存储设备上,一个或多个副本存储在机械硬盘上。或者一个副本存储在NVMe存储设备上,一个副本以EC分条的形式存储在多个机械硬盘上。客户端读取数据时,从NVMe存储设备中获取数据,从而提高读性能。具体访问过程可参考本发明上述各实施例描述,在此不再赘述。客户端向机械硬盘发送的写请求包含客户端接收的写请求中的存储地址映射到机械硬盘的逻辑地址。客户端向机械硬盘发送的写请求也可以为RDMA请求。
本发明上述实施例以客户端向存储节点中的NVMe存储设备及SCM的存储设备发送RDMA写请求为例进行说明,本发明实施例方案也可以应用到向存储节点中的NVMe存储设备及SCM的存储设备发送RDMA读请求等,本发明实施例对此不作限定。即本发明实施例可以实现客户端向存储节点中的NVMe存储设备及SCM的存储设备发送RDMA访问请求。本发明实施例中,客户端接收到的访问请求中包含的存储地址可以对应多个存储设备的逻辑地址(或基地址),因此,对其中一个存储设备而言,表示为逻辑地址映射到该存储设备的逻辑地址(或基地址)
基于本发明上述实施例的描述,本发明实施例还提供了存储节点,如图16所示,应用于存储系统中,存储系统还包含管理服务器,存储节点包含NVMe接口规范的第一存储设备;存储节点包括分配单元161和发送单元162;其中,分配单元,用于在内存中为第一存储设备的队列的起始地址分配第一内存地址,发送单元162,用于向管理服务器发送第一队列消息;第一队列消息包含存储节点的标识和第一内存地址。进一步的,存储节点还包括检测单元,用于检测到第一存储设备安装到所述存储节点。进一步的,检测单元,还用于检测到第一存储设备从存储节点中移除;发送单元162,还用于向管理服务器发送队列消息删除消息;队列消息删除消息包含第一内存地址。
与图16所示的存储节点对应,本发明实施例还提供了如图17所示的一种应用于存储系统的客户端,存储系统包含管理服务器和第一存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址存储在第一存储节点的第一内存中的第一内存地址;管理服务器存储第一存储节点的标识和第一内存地址的第一映射关系;客户端包括发送单元171和接收单元172,其中,发送单元171,用于向管理服务器发送查询请求;查询请求包含第一存储节点的标识;接收单元172,用于接收来自管理服务器查询请求响应;查询请求响应包含管理服务器根据第一映射关系确定的第一内存地址。进一步的,发送单元171,还用于向第一存储节点发送第一远程直接内存访问请求;第一远程直接内存访问请求包含第一内存地址。进一步的,存储系统还包含第二存储节点,第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器存储第二存储节点的标识和第二内存地址的第二映射关系;查询请求包含所述第二存储节点的标识;查询请求响应包含所述管理服务器根据第二映射关系确定的第二内存地址;其中,第一存储设备和第二存储设备构成分条关系;发送单元171,还用于向第二存储节点发送第二远程直接内存访问请求;第二远程直接内存访问请求包含第二内存地址。
与图16和17对应,在图18所示实施例中提供了一种存储系统中的管理服务器,存储系统包含管理服务器和第一存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;管理服务器包括获取单元181、建立单元182、接收单元183和发送单元184;其中,获取单181元,用于从第一存储节点获取第一队列消息;第一队列消息包含第一存储节点的标识和第一内存地址;建立单元182,用于建立第一存储节点的标识和第一内存地址之间的第一映射关系;接收单元183,用于接收来自客户端的查询请求;查询请求包含第一存储节点的标识;发送单元184,用于根据第一映射关系向客户端发送查询请求响应;查询请求响应包含第一内存地址。进一步的,建立单元182,还用于建立锁定标识,锁定标识用于锁定第一内存地址。进一步的,存储系统还包括第二存储节点,第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;获取单元181还用于从第二存储节点获取第二存储设备的第二队列消息;第二队列消息包含第二存储节点的标识和第二内存地址;建立单元182,还用于建立第二存储节点的标识和第二内存地址的第二映射关系。进一步的,获取单元181还用于从第一存储节点获得第三队列消息;第三队列消息包含第一存储节点的标识和第三内存地址;建立单元182,还用于建立第一存储节点的标识和第三内存地址的第三映射关系;其中,NVMe接口规范的第三存储设备的队列的起始地址位于第一内存中的第三内存地址,第三存储设备为所述第一存储节点新增加的存储设备。进一步的,接收单元183,还用于从第二存储节点接收队列消息删除消息;队列消息删除消息包含第二内存地址,管理服务器还包含删除单元,用于删除第二映射关系。进一步的,管理服务器,还包括检测单元和删除单元;其中,检测单元,用于检测到与第一存储节点通信中断;删除单元,用于删除第一映射关系。进一步的,检测单元,具体用于检测在预定的时间内未收到第一存储节点的心跳。
如图19所示,本发明实施例进一步提供了一种存储系统中的管理服务器,存储系统还包含第一存储节点和第二存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器存储映射表,映射表包含第一存储节点的标识和第一内存地址之间的第一映射关系以及第二存储节点的标识和第二内存地址之间的第二映射关系;管理服务器包括接收单元191和发送单元192;其中,接收单元191,用于接收来自客户端的查询请求;查询请求包含第一存储节点的标识和第二存储节点的标识;发送单元192,用于根据映射表向所述客户端发送查询请求响应;查询请求响应包含第一内存地址和第二内存地址。进一步的,管理服务器还包括获取单元和建立单元,用于从第一存储节点获取第一队列消息,从第二存储节点获取第二队列消息;第一队列消息包含第一存储节点的标识和第一内存地址;第二队列消息包含第二存储节点的标识和第二内存地址;建立单元,用于建立第一映射关系和第二映射关系。进一步的,建立单元还用于建立锁定标识,锁定标识用于锁定第一映射关系和第二映射关系。进一步的,获取单元还用于从第一存储节点获得第三队列消息;第三队列消息包含第一存储节点的标识和第三内存地址;建立单元,还用于建立第一存储节点的标识和第三内存地址的第三映射关系;其中,NVMe接口规范的第三存储设备的队列的起始地址位于第一内存中的第三内存地址,第三存储设备为所述第一存储节点新增加的存储设备。进一步的,管理服务器,还包括删除单元;接收单元191,还用于从第二存储节点接收队列消息删除消息;队列消息删除消息包含第二内存地址;删除单元,用于从映射表中删除第二映射关系。进一步的,管理服务器,还包括检测单元和删除单元;其中,检测单元,用于检测到与第一存储节点通信中断;删除单元,用于删除第一映射关系。进一步的,检测单元具体用于检测到在预定的时间内未收到第一存储节点的心跳。
与图19描述的管理服务器对应,图20提供了本发明实施例的存储系统中的客户端,存储系统包含管理服务器、第一存储节点和第二存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址;第二存储节点包含NVMe接口规范的第二存储设备,第二存储设备的队列的起始地址位于第二存储节点的第二内存中的第二内存地址;管理服务器存储映射表,映射表包含第一存储节点的标识和所述第一内存地址之间的第一映射关系以及第二存储节点的标识和第二内存地址之间的第二映射关系;客户端包括发送单元2001和接收单元2002;其中,发送单元2001,用于向管理服务器发送查询请求;查询请求包含第一存储节点的标识和第二存储节点的标识;接收单元2002,用于接收来自管理服务器的查询请求响应;查询请求响应包含管理服务器根据映射表确定的第一内存地址和第二内存地址。进一步的,发送单元2002,还用于向第一存储节点发送第一远程直接内存访问请求,向第二存储节点发送第二远程直接内存访问请求;第一远程直接内存访问请求包含第一内存地址;第二远程直接内存访问请求包含第二内存地址。
如图21所示,本发明实施例提供了存储系统中另一种客户端,存储系统包含第一存储节点,第一存储节点包含NVMe接口规范的第一存储设备,第一存储设备的队列的起始地址位于第一存储节点的第一内存中的第一内存地址,客户端包括接收单元2101、查询单元2102、获取单元2103和发送单元2104;其中,接收单元2101,用于接收写请求,写请求包含存储地址;查询单元2102,用于查询存储地址的映射关系,存储地址的映射关系所述存储地址映射到第一存储节点的第一存储设备的第一逻辑地址;获取单元2103,用于获取第一存储设备的队列的起始地址所在的第一内存地址;发送单元2104,用于向第一存储节点发送第一远程直接内存访问写请求;第一远程直接内存访问写请求包含第一内存地址和第一逻辑地址。进一步的,存储系统还包括管理服务器,管理服务器存储有第一存储节点的标识与所述内存地址的映射关系;获取单元2103,具体用于:向管理服务器发送第一查询请求;第一队列查询请求包含第一存储节点的标识,接收来自管理服务器的第一查询请求响应,第一查询请求响应包含第一内存地址。进一步的,获取单元2103,具体用于:向第一存储节点发送第二查询请求;第二查询请求包含第一存储设备的标识;接收来自第一存储节点的第二查询请求响应;第二查询请求响应包含所述第一内存地址。进一步的,存储系统还包括第二存储节点,第二存储节点包含存储级内存的第二设备,存储地址的映射关系包含存储地址映射到第二存储设备的第一基地址;发送单元2104,还用于向所述第二存储节点发送第二远程直接内存访问写请求;第二远程直接内存访问写请求包含所述第一基地址。进一步的,存储系统还包括第三存储节点,第三存储节点包含第三存储设备,存储地址的映射关系包含存储地址映射到第三存储设备的第三逻辑地址;第三存储设备为机械硬盘;发送单元2104,还用于向第三存储节点发送第三写请求;第三写请求包含所述第三逻辑地址。进一步的,存储系统包含第四存储节点,第四存储节点包含NVMe接口规范的第四存储设备,第四存储设备的队列的起始地址位于第四存储节点的第三内存中的第三内存地址;存储地址的映射关系包含存储地址映射到第四存储设备的第四逻辑地址;获取单元2101,还用于获取第四存储设备的队列的起始地址所在的第三内存地址;发送单元2104,还用于向第一存储节点发送第四远程直接内存访问写请求;第四远程直接内存访问写请求包含第三内存地址和第四逻辑地址。
本发明实施例中,队列的起始地址位于内存中的内存地址与队列在内存中的起始地址具有相同的含义。上述描述也称为队列在内存中的起始地址位于内存中的某一内存地址。
本发明实施例的管理服务器、存储节点和客户端的实现可以参考前面本发明实施例中的管理服务器、存储节点和客户端的描述。具体的,本发明实施例中的装置可以为软件模块,可以运行在服务器上,从而使服务器完成本发明实施例中描述的各种实现。装置也可以为硬件设备,具体可以参考图2所示的结构,装置的各单元可以由图2描述的服务器的处理器实现。
相应的,本发明实施例还提供了计算机可读存储介质和计算机程序产品,计算机可读存储介质和计算机程序产品中包含计算机指令用于实现本发明实施例中描述的各种方案。
本发明实施例中以EC和多副本作为分条算法,但本发明实施例中的分条算法并不限于EC和多副本作为分条算法。
在本发明所提供的几个实施例中,应该理解到,所公开的装置、方法,可以通过其它的方式实现。例如,以上所描述的装置实施例所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例各方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
Claims (12)
1.一种存储系统中存储设备的管理方法,其特征在于,所述存储系统包含管理客户端、存储节点和管理服务器,所述存储节点包含内存和存储设备,所述方法包括:
所述客户端接收第一访问请求;所述第一访问请求包含存储地址;
所述客户端确认与所述存储地址对应的所述存储设备的逻辑地址;
所述客户端向所述管理服务器查询所述存储设备与所述内存中的提交队列的起始地址的映射;
所述客户端从所述管理服务器接收所述内存中的提交队列的起始地址;
所述客户端向所述存储节点的网络接口卡发送第二访问请求;所述第二访问请求指向所述提交队列的起始地址;所述第二访问请求包含所述存储设备的逻辑地址;
所述存储节点通过所述网络接口卡接收所述第二访问请求;
所述存储节点通过所述网络接口卡发送所述第二访问请求到所述提交队列的起始地址;
所述存储设备从所述提交队列的起始地址获取所述第二访问请求;
所述存储设备根据所述第二访问请求访问所述逻辑地址。
2.根据权利要求1所述的方法,其特征在于,在所述客户端向所述管理服务器查询所述存储设备与所述内存中的提交队列的起始地址的映射关系之前,所述方法还包括:
所述存储节点向所述管理服务器发送队列消息;所述队列消息包含所述存储节点的标识和所述提交队列在所述内存中的起始地址;
所述管理服务器建立所述提交队列在所述内存中的起始地址与所述存储设备的映射。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
所述管理服务器分配锁标识;所述锁标识用于为所述客户端锁定所述提交队列在所述内存中的起始地址。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
所述管理服务器从所述存储节点接收队列信息删除消息;所述队列信息删除消息包含所述提交队列在所述内存中的起始地址;
所述管理服务器删除所述提交队列在所述内存中的起始地址与所述存储设备的映射。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
所述管理服务器检测到与所述存储节点的通信中断;
所述管理服务器删除所述提交队列在所述内存中的起始地址与所述存储设备的映射。
6.根据权利要求5所述的方法,其特征在于,所述管理服务器检测到与所述存储节点的通信中断,具体包括:
所述管理服务器在预设的时间内没有接收到所述存储节点的心跳。
7.一种存储系统,其特征在于,包括管理服务器、客户端和存储节点;其中,所述存储节点包含内存、存储设备和网络接口卡,所述存储设备的提交队列们于所述存储节点的所述内存中;
所述客户端用于:
接收第一访问请求;所述第一访问请求包含存储地址;
确认与所述存储地址对应的所述存储设备的逻辑地址;
向所述管理服务器查询所述存储设备与所述内存中的提交队列的起始地址的映射;
从所述管理服务器接收所述内存中的提交队列的起始地址;
向所述存储节点的网络接口卡发送第二访问请求;所述第二访问请求指向所述提交队列的起始地址;所述第二访问请求包含所述存储设备的逻辑地址;
所述存储节点用于:
通过所述网络接口卡接收所述第二访问请求;
通过所述网络接口卡发送所述第二访问请求到所述提交队列的起始地址;
所述存储设备用于:
从所述提交队列的起始地址获取所述第二访问请求;
根据所述第二访问请求访问所述逻辑地址。
8.根据权利要求7所述的存储系统,其特征在于,所述存储节点还用于向所述管理服务器发送队列消息;所述队列消息包含所述存储节点的标识和所述提交队列在所述内存中的起始地址;
所述管理服务器还用于建立所述提交队列在所述内存中的起始地址与所述存储设备的映射。
9.根据权利要求7所述的存储系统,其特征在于,所述管理服务器还用于分配锁标识;所述锁标识用于为所述客户端锁定所述提交队列在所述内存中的起始地址。
10.根据权利要求7所述的存储系统,其特征在于,所述管理服务器还用于:
从所述存储节点接收队列信息删除消息;所述队列信息删除消息包含所述提交队列在所述内存中的起始地址;
删除所述提交队列在所述内存中的起始地址与所述存储设备的映射。
11.根据权利要求7所述的存储系统,其特征在于,所述管理服务器还用于:
检测到与所述存储节点的通信中断;
删除所述提交队列在所述内存中的起始地址与所述存储设备的映射。
12.根据权利要求11所述的存储系统,其特征在于,所述管理服务器检测到与所述存储节点的通信中断,具体包括在预设的时间内没有接收到所述存储节点的心跳。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011475355.8A CN112615917B (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及存储系统 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/118650 WO2019127021A1 (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及装置 |
CN201780002717.1A CN110199512B (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及装置 |
CN202011475355.8A CN112615917B (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及存储系统 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780002717.1A Division CN110199512B (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112615917A CN112615917A (zh) | 2021-04-06 |
CN112615917B true CN112615917B (zh) | 2024-04-12 |
Family
ID=67064268
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780002717.1A Active CN110199512B (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及装置 |
CN202011475355.8A Active CN112615917B (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及存储系统 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780002717.1A Active CN110199512B (zh) | 2017-12-26 | 2017-12-26 | 存储系统中存储设备的管理方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11314454B2 (zh) |
EP (2) | EP3985949A1 (zh) |
CN (2) | CN110199512B (zh) |
WO (1) | WO2019127021A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11314608B1 (en) * | 2020-10-02 | 2022-04-26 | Dell Products L.P. | Creating and distributing spare capacity of a disk array |
US11334245B1 (en) * | 2020-10-30 | 2022-05-17 | Dell Products L.P. | Native memory semantic remote memory access system |
US11875046B2 (en) | 2021-02-05 | 2024-01-16 | Samsung Electronics Co., Ltd. | Systems and methods for storage device resource management |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101291347A (zh) * | 2008-06-06 | 2008-10-22 | 中国科学院计算技术研究所 | 一种网络存储系统 |
US8595385B1 (en) * | 2013-05-28 | 2013-11-26 | DSSD, Inc. | Method and system for submission queue acceleration |
CN104683430A (zh) * | 2013-07-08 | 2015-06-03 | 英特尔公司 | 用于从远程可访问存储设备进行初始化的技术 |
CN104850502A (zh) * | 2015-05-05 | 2015-08-19 | 华为技术有限公司 | 一种数据的访问方法、装置及设备 |
CN106155586A (zh) * | 2016-05-31 | 2016-11-23 | 华为技术有限公司 | 一种存储方法、服务器及存储控制器 |
CN106469198A (zh) * | 2016-08-31 | 2017-03-01 | 华为技术有限公司 | 键值存储方法、装置及系统 |
CN106775434A (zh) * | 2015-11-19 | 2017-05-31 | 华为技术有限公司 | 一种NVMe网络化存储的实现方法、终端、服务器及系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7801997B2 (en) * | 2006-03-30 | 2010-09-21 | International Business Machines Corporation | Asynchronous interconnect protocol for a clustered DBMS |
CN102388357B (zh) * | 2011-09-23 | 2013-08-28 | 华为技术有限公司 | 访问存储设备的方法及系统 |
CN102968498B (zh) * | 2012-12-05 | 2016-08-10 | 华为技术有限公司 | 数据处理方法及装置 |
CN103064797B (zh) * | 2012-12-21 | 2016-06-29 | 华为技术有限公司 | 数据处理方法和虚拟机管理平台 |
US9986028B2 (en) * | 2013-07-08 | 2018-05-29 | Intel Corporation | Techniques to replicate data between storage servers |
CN103634379B (zh) * | 2013-11-13 | 2017-02-01 | 华为技术有限公司 | 一种分布式存储空间的管理方法和分布式存储系统 |
US9304690B2 (en) * | 2014-05-07 | 2016-04-05 | HGST Netherlands B.V. | System and method for peer-to-peer PCIe storage transfers |
CN108062285B (zh) * | 2014-06-27 | 2022-04-29 | 华为技术有限公司 | 一种访问NVMe存储设备的方法和NVMe存储设备 |
US9658782B2 (en) | 2014-07-30 | 2017-05-23 | Excelero Storage Ltd. | Scalable data using RDMA and MMIO |
US9112890B1 (en) * | 2014-08-20 | 2015-08-18 | E8 Storage Systems Ltd. | Distributed storage over shared multi-queued storage device |
US10061743B2 (en) * | 2015-01-27 | 2018-08-28 | International Business Machines Corporation | Host based non-volatile memory clustering using network mapped storage |
CN105989048B (zh) * | 2015-02-05 | 2019-12-24 | 浙江大华技术股份有限公司 | 一种数据记录处理方法、设备及系统 |
CN104951252B (zh) * | 2015-06-12 | 2018-10-16 | 北京联想核芯科技有限公司 | 一种数据访问方法及PCIe存储设备 |
KR102430187B1 (ko) * | 2015-07-08 | 2022-08-05 | 삼성전자주식회사 | RDMA NVMe 디바이스의 구현 방법 |
WO2017100978A1 (zh) | 2015-12-14 | 2017-06-22 | 华为技术有限公司 | 一种集群中锁管理的方法、锁服务器及客户端 |
US10423568B2 (en) * | 2015-12-21 | 2019-09-24 | Microsemi Solutions (U.S.), Inc. | Apparatus and method for transferring data and commands in a memory management environment |
CN111752480A (zh) * | 2016-03-24 | 2020-10-09 | 华为技术有限公司 | 一种数据写方法、数据读方法及相关设备、系统 |
US11086801B1 (en) * | 2016-04-14 | 2021-08-10 | Amazon Technologies, Inc. | Dynamic resource management of network device |
-
2017
- 2017-12-26 WO PCT/CN2017/118650 patent/WO2019127021A1/zh unknown
- 2017-12-26 CN CN201780002717.1A patent/CN110199512B/zh active Active
- 2017-12-26 EP EP21190258.0A patent/EP3985949A1/en active Pending
- 2017-12-26 CN CN202011475355.8A patent/CN112615917B/zh active Active
- 2017-12-26 EP EP17898343.3A patent/EP3531666B1/en active Active
-
2020
- 2020-06-25 US US16/912,377 patent/US11314454B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101291347A (zh) * | 2008-06-06 | 2008-10-22 | 中国科学院计算技术研究所 | 一种网络存储系统 |
US8595385B1 (en) * | 2013-05-28 | 2013-11-26 | DSSD, Inc. | Method and system for submission queue acceleration |
CN104683430A (zh) * | 2013-07-08 | 2015-06-03 | 英特尔公司 | 用于从远程可访问存储设备进行初始化的技术 |
CN104850502A (zh) * | 2015-05-05 | 2015-08-19 | 华为技术有限公司 | 一种数据的访问方法、装置及设备 |
CN106775434A (zh) * | 2015-11-19 | 2017-05-31 | 华为技术有限公司 | 一种NVMe网络化存储的实现方法、终端、服务器及系统 |
CN106155586A (zh) * | 2016-05-31 | 2016-11-23 | 华为技术有限公司 | 一种存储方法、服务器及存储控制器 |
CN106469198A (zh) * | 2016-08-31 | 2017-03-01 | 华为技术有限公司 | 键值存储方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2019127021A1 (zh) | 2019-07-04 |
CN110199512B (zh) | 2020-12-22 |
EP3985949A1 (en) | 2022-04-20 |
CN112615917A (zh) | 2021-04-06 |
US20200326891A1 (en) | 2020-10-15 |
EP3531666A1 (en) | 2019-08-28 |
US11314454B2 (en) | 2022-04-26 |
EP3531666A4 (en) | 2019-08-28 |
EP3531666B1 (en) | 2021-09-01 |
CN110199512A (zh) | 2019-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110235098B (zh) | 存储系统访问方法及装置 | |
US11372544B2 (en) | Write type based crediting for block level write throttling to control impact to read input/output operations | |
US8996535B1 (en) | Extent hashing technique for distributed storage architecture | |
US10459649B2 (en) | Host side deduplication | |
US7676628B1 (en) | Methods, systems, and computer program products for providing access to shared storage by computing grids and clusters with large numbers of nodes | |
CN113485636B (zh) | 一种数据访问方法、装置和系统 | |
US11321021B2 (en) | Method and apparatus of managing mapping relationship between storage identifier and start address of queue of storage device corresponding to the storage identifier | |
US9355121B1 (en) | Segregating data and metadata in a file system | |
US11314454B2 (en) | Method and apparatus for managing storage device in storage system | |
US20190114076A1 (en) | Method and Apparatus for Storing Data in Distributed Block Storage System, and Computer Readable Storage Medium | |
CN109302448A (zh) | 一种数据处理方法及装置 | |
CN109814805B (zh) | 存储系统中分条重组的方法及分条服务器 | |
US11151048B2 (en) | Host-based read performance optimization of a content addressable storage system | |
CN111936960B (zh) | 分布式存储系统中数据存储方法、装置及计算机程序产品 | |
CN111274259A (zh) | 一种分布式存储系统中存储节点的数据更新方法 | |
CN112714910B (zh) | 分布式存储系统及计算机程序产品 | |
WO2016065613A1 (zh) | 访问文件的方法、分布式存储系统和网络设备 | |
US9501290B1 (en) | Techniques for generating unique identifiers | |
US20210334247A1 (en) | Group based qos policies for volumes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |