CN117591450A - 一种数据处理系统、方法、设备及介质 - Google Patents
一种数据处理系统、方法、设备及介质 Download PDFInfo
- Publication number
- CN117591450A CN117591450A CN202410066357.3A CN202410066357A CN117591450A CN 117591450 A CN117591450 A CN 117591450A CN 202410066357 A CN202410066357 A CN 202410066357A CN 117591450 A CN117591450 A CN 117591450A
- Authority
- CN
- China
- Prior art keywords
- cpu core
- physical
- core group
- hard disk
- bound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000015654 memory Effects 0.000 claims abstract description 215
- 238000004891 communication Methods 0.000 claims abstract description 70
- 238000004590 computer program Methods 0.000 claims description 39
- 238000003672 processing method Methods 0.000 claims description 13
- 238000013500 data storage Methods 0.000 claims description 7
- 238000002955 isolation Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/10—Program control for peripheral devices
- G06F13/12—Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor
- G06F13/124—Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor where hardware is a sequential transfer control unit, e.g. microprocessor, peripheral processor or state-machine
- G06F13/126—Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor where hardware is a sequential transfer control unit, e.g. microprocessor, peripheral processor or state-machine and has means for transferring I/O instructions and statuses between control unit and main processor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/10—Program control for peripheral devices
- G06F13/12—Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor
- G06F13/124—Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor where hardware is a sequential transfer control unit, e.g. microprocessor, peripheral processor or state-machine
- G06F13/128—Program control for peripheral devices using hardware independent of the central processor, e.g. channel or peripheral processor where hardware is a sequential transfer control unit, e.g. microprocessor, peripheral processor or state-machine for dedicated transfers to a network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/16—Handling requests for interconnection or transfer for access to memory bus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/78—Architectures of general purpose stored program computers comprising a single central processing unit
- G06F15/7839—Architectures of general purpose stored program computers comprising a single central processing unit with memory
- G06F15/7864—Architectures of general purpose stored program computers comprising a single central processing unit with memory on more than one IC chip
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了计算机技术领域内的一种数据处理系统、方法、设备及介质。本申请中的磁盘阵列的每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存,实现了磁盘阵列中物理网卡资源、物理硬盘资源和物理内存资源的隔离和划分;任意主机通过网络设备与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的专属的通信链路,那么一个CPU核组(即一个die)和一个主机就有一个专用的通信链路通信,使得该主机访问该CPU核组以及与绑定的物理硬盘和物理内存,而不用跨die访问,访问路径得到了缩短,节约了计算机资源,提升了访问性能和访问效率。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种数据处理系统、方法、设备及介质。
背景技术
当前,NUMA(Non-Uniform Memory Access,非一致性内存访问)架构的处理器(Central Processing Unit,CPU)经常会跨die访问,一个die包括一部分的CPU核。跨die访问时,访问路径较长,所消耗的计算机资源也较多,因此访问性能和访问效率有限。其中,对一个处理器中的不同CPU核进行划分,可使N个CPU核组成一个die。
因此,如何解决跨die访问造成的低访问性能和低访问效率,是本领域技术人员需要解决的问题。
发明内容
有鉴于此,本申请的目的在于提供一种数据处理系统、方法、设备及介质,以解决跨die访问造成的低访问性能和低访问效率。其具体方案如下:
第一方面,本申请提供了一种数据处理系统,包括:磁盘阵列、网络设备和至少一个主机;
所述磁盘阵列包括:多个CPU核组,每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存;
所述网络设备用于:使所述磁盘阵列和所述至少一个主机进行通信;
任意主机用于:通过所述网络设备探查所述磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;与所述多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路,并通过所述通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
可选地,所述磁盘阵列用于:按照负载均衡策略将自身中的所有CPU核划分至不同CPU核组,得到所述多个CPU核组;
相应地,所述磁盘阵列还用于:为每一CPU核组绑定至少一个物理内存的内存实例、至少一个物理网卡的网卡实例和至少一个硬盘的硬盘实例,以使每一CPU核组绑定专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。
可选地,所述网络设备为网络交换机;
相应地,所述网络交换机用于:利用以太网协议使所述磁盘阵列和所述至少一个主机进行通信。
可选地,任意主机具体用于:与所述多个CPU核组中的单一CPU核组专属的物理网卡的RDMA(RemoteDirect Memory Access,远程直接数据存取)网口连接,以建立不被其他主机和其他CPU核组探查的RDMA通信链路,并通过所述RDMA通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
可选地,任意主机还用于:在自身中为每一通信链路创建访问队列以及内存区。
可选地,物理硬盘为NVMe(Non-Volatile Memory express,非易失性内存主机控制器接口规范)硬盘和/或SAS(Serial Attached SCSI,串行连接SCSI接口协议)硬盘;
相应地,任意主机具体用于:通过NVMe协议和/或SAS协议访问当前CPU核组绑定的物理硬盘。
可选地,所述磁盘阵列还包括:主控制器;
相应地,所述主控制器用于:接收任意主机发送的访问请求,根据所述访问请求的目的端口将所述访问请求转发至相应CPU核组。
可选地,任意CPU核组具体用于:若接收的访问请求为读请求,则在当前CPU核组绑定的物理内存中申请内存区,从当前CPU核组绑定的物理硬盘中读取所述读请求要读取的目标数据至所申请的内存区,通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至所述读请求对应的主机。
可选地,任意CPU核组还用于:释放所述读请求占用的内存资源。
可选地,任意CPU核组还用于:在从当前CPU核组绑定的物理硬盘中读取所述读请求要读取的目标数据至所申请的内存区的同时,从该物理硬盘中读取与所述目标数据的关联度大于预设阈值的关联数据至所申请的内存区;在通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至所述读请求对应的主机之后,保留所申请的内存区中的所述目标数据和所述关联数据。
可选地,任意CPU核组具体用于:计算当前CPU核组绑定的物理硬盘中的其他数据的数据关键信息与所述目标数据的数据关键信息之间的关联度;数据关键信息包括:数据存储地址、哈希值和/或元数据。
可选地,任意CPU核组具体用于:若接收的访问请求为写请求,则在当前CPU核组绑定的物理内存中申请内存区,将所述写请求要写的数据写入所申请的内存区,将所申请内存区中的数据写入当前CPU核组绑定的物理硬盘,通过当前CPU核组绑定的物理网卡返回写请求完成消息至所述写请求对应的主机。
第二方面,本申请提供了一种数据处理方法,应用于任意主机,该主机通过网络设备与磁盘阵列通信,所述磁盘阵列包括:多个CPU核组,每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存;
该方法包括:
通过所述网络设备探查所述磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;
与所述多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路;
通过所述通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
可选地,所述磁盘阵列按照负载均衡策略将自身中的所有CPU核划分至不同CPU核组,得到所述多个CPU核组;为每一CPU核组绑定至少一个物理内存的内存实例、至少一个物理网卡的网卡实例和至少一个硬盘的硬盘实例,以使每一CPU核组绑定专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。
可选地,所述网络设备为网络交换机;所述网络交换机利用以太网协议使所述磁盘阵列和所述至少一个主机进行通信。
可选地,任意主机与所述多个CPU核组中的单一CPU核组专属的物理网卡的RDMA(RemoteDirect Memory Access,远程直接数据存取)网口连接,以建立不被其他主机和其他CPU核组探查的RDMA通信链路,并通过所述RDMA通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
可选地,任意主机在自身中为每一通信链路创建访问队列以及内存区。
可选地,任意主机通过NVMe协议和/或SAS协议访问当前CPU核组绑定的物理硬盘。
可选地,任意CPU核组若接收的访问请求为读请求,则在当前CPU核组绑定的物理内存中申请内存区,从当前CPU核组绑定的物理硬盘中读取所述读请求要读取的目标数据至所申请的内存区,通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至所述读请求对应的主机。释放所述读请求占用的内存资源。
可选地,任意CPU核组在从当前CPU核组绑定的物理硬盘中读取所述读请求要读取的目标数据至所申请的内存区的同时,从该物理硬盘中读取与所述目标数据的关联度大于预设阈值的关联数据至所申请的内存区;在通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至所述读请求对应的主机之后,保留所申请的内存区中的所述目标数据和所述关联数据。
可选地,任意CPU核组计算当前CPU核组绑定的物理硬盘中的其他数据的数据关键信息与所述目标数据的数据关键信息之间的关联度;数据关键信息包括:数据存储地址、哈希值和/或元数据。
可选地,任意CPU核组若接收的访问请求为写请求,则在当前CPU核组绑定的物理内存中申请内存区,将所述写请求要写的数据写入所申请的内存区,将所申请内存区中的数据写入当前CPU核组绑定的物理硬盘,通过当前CPU核组绑定的物理网卡返回写请求完成消息至所述写请求对应的主机。
第三方面,本申请提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,以实现前述公开的数据处理方法。
第四方面,本申请提供了一种可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现前述公开的数据处理方法。
通过以上方案可知,本申请提供了一种数据处理系统,包括:磁盘阵列、网络设备和至少一个主机;所述磁盘阵列包括:多个CPU核组,每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存;所述网络设备用于:使所述磁盘阵列和所述至少一个主机进行通信;任意主机用于:通过所述网络设备探查所述磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;与所述多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路,并通过所述通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
可见,本申请的技术效果为:磁盘阵列的每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存,由此实现了磁盘阵列中物理网卡资源、物理硬盘资源和物理内存资源的隔离和划分;任意主机通过网络设备探查磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;主机还与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的专属的通信链路,那么一个CPU核组(即一个die)和一个主机就有一个专用的通信链路通信,使得该主机访问该CPU核组以及与绑定的物理硬盘和物理内存,而不用跨die访问,访问路径得到了缩短,节约了计算机资源,提升了访问性能和访问效率。
相应地,本申请提供的一种数据处理方法、设备及可读存储介质,也同样具有上述技术效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请公开的一种数据处理系统示意图;
图2为本申请公开的另一种数据处理系统示意图;
图3为本申请公开的一种数据处理方法流程图;
图4为本申请公开的一种电子设备示意图;
图5为本申请提供的一种服务器结构图;
图6为本申请提供的一种终端结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
目前,NUMA架构的处理器经常会跨die访问,一个die包括一部分的CPU核。跨die访问时,访问路径较长,所消耗的计算机资源也较多,因此访问性能和访问效率有限。其中,对一个处理器中的不同CPU核进行划分,可使N个CPU核组成一个die。为此,本申请提供了一种数据处理方案,能够避免跨die访问,能够解决跨die访问造成的低访问性能和低访问效率。
参见图1所示,本申请实施例公开了一种数据处理系统,包括:磁盘阵列、网络设备和至少一个主机。磁盘阵列包括:多个CPU核组,每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。网络设备用于:使磁盘阵列和至少一个主机进行通信。任意主机用于:通过网络设备探查磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路,并通过通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。一个CPU核组即:一个包括多个CPU核的die。其中,不被其他主机和其他CPU核组探查的通信链路指:其他主机和其他CPU核组不能察觉到该通信链路的存在。
其中,每一CPU核组与其绑定的物理网卡、物理硬盘和物理内存,位于同一物理区域。也就是说,CPU核的划分是基于器件的物理布局实现的,并不仅仅实现了逻辑上的划分,更重要的是,不同CPU核组及其绑定的物理网卡、物理硬盘和物理内存的物理位置相近,处于磁盘阵列的处理器集成电路的同一电路区域。可见,不同CPU核组的物理布局是基于电路设计确定的。
在本实施例中,磁盘阵列用于:按照负载均衡策略将自身中的所有CPU核划分至不同CPU核组,得到多个CPU核组;相应地,磁盘阵列还用于:为每一CPU核组绑定至少一个物理内存的内存实例(即内存的控制进程)、至少一个物理网卡的网卡实例(即网卡的控制进程)和至少一个硬盘的硬盘实例(即硬盘的控制进程),以使每一CPU核组绑定专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。负载均衡策略能够均分磁盘阵列中的所有CPU核至不同CPU核组。也就是说,任意CPU核组不能察觉到其未绑定的物理网卡、物理硬盘和物理内存的存在。
需要说明的是,主机和磁盘阵列能够通过以太网协议进行互相发现。在一种示例中,网络设备为网络交换机;相应地,网络交换机用于:利用以太网协议使磁盘阵列和至少一个主机进行通信。以太网协议如:RoCE(RDMA over Converged Ethernet,基于融合以太网的RDMA)等。
需要说明的是,任意主机通过网络设备可以连接任意CPU核组专属的物理网卡的RDMA网口,从而建立专用RDMA通信链路。在一种示例中,任意主机具体用于:与多个CPU核组中的单一CPU核组专属的物理网卡的RDMA网口连接,以建立不被其他主机和其他CPU核组探查的RDMA通信链路,并通过RDMA通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。相应地,任意主机还用于:在自身中为每一通信链路创建访问队列以及内存区。
在一种示例中,物理硬盘为NVMe硬盘和/或SAS硬盘;相应地,任意主机具体用于:通过NVMe协议和/或SAS协议访问当前CPU核组绑定的物理硬盘。
进一步地,磁盘阵列还包括:主控制器;相应地,主控制器用于:接收任意主机发送的访问请求,根据访问请求的目的端口将访问请求转发至相应CPU核组。
在一种示例中,任意CPU核组具体用于:若接收的访问请求为读请求,则在当前CPU核组绑定的物理内存中申请内存区,从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区,通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机。相应地,任意CPU核组还用于:释放读请求占用的内存资源。
需要说明的是,任意CPU核组还用于:在从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区的同时,从该物理硬盘中读取与目标数据的关联度大于预设阈值的关联数据至所申请的内存区;在通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机之后,保留所申请的内存区中的目标数据和关联数据。其中,任意CPU核组还计算当前CPU核组绑定的物理硬盘中的其他数据的数据关键信息与目标数据的数据关键信息之间的关联度;数据关键信息包括:数据存储地址、哈希值和/或元数据。
在一种示例中,任意CPU核组具体用于:若接收的访问请求为写请求,则在当前CPU核组绑定的物理内存中申请内存区,将写请求要写的数据写入所申请的内存区,将所申请内存区中的数据写入当前CPU核组绑定的物理硬盘,通过当前CPU核组绑定的物理网卡返回写请求完成消息至写请求对应的主机。
可见,在本实施例中,磁盘阵列的每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存,由此实现了磁盘阵列中物理网卡资源、物理硬盘资源和物理内存资源的隔离和划分;任意主机通过网络设备探查磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;主机还与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的专属的通信链路,那么一个CPU核组(即一个die)和一个主机就有一个专用的通信链路通信,使得该主机访问该CPU核组以及与绑定的物理硬盘和物理内存,而不用跨die访问,访问路径得到了缩短,节约了计算机资源,提升了访问性能和访问效率。
请参见图2,本申请提供的数据处理系统包括:n个主机、一个网络交换机和一个磁盘阵列。该磁盘阵列包括:die0、die1、die2和die3共4个die,对应4个Core;在每一个die中,绑定有专属的100G网卡、NVMe盘和内存。在该系统中,利用以太网和RDMA技术实现磁盘阵列与主机的通信连接,并通过RDMA使主机实现对磁盘阵列存储空间的访问,并且主机对磁盘阵列存储空间的访问遵循:从当前die上的网卡仅能访问到当前die的盘。
其中,每一CPU核组与其绑定的物理网卡、物理硬盘和物理内存,位于同一物理区域。也就是说,CPU核的划分是基于器件的物理布局实现的,并不仅仅实现了逻辑上的划分,更重要的是,不同CPU核组及其绑定的物理网卡、物理硬盘和物理内存的物理位置相近,处于磁盘阵列的处理器集成电路的同一电路区域。可见,不同CPU核组的物理布局是基于电路设计确定的。
其中,主机可以是服务器,其是数据访问的发起端,主机通过以太网协议与磁盘阵列建立通信连接,主机还创建用于收数据的硬件队列,再通过RDMA数据链路进行数据收发。
具体的,主机和磁盘阵列通过以太网协议进行互相发现。主机和磁盘阵列中的每一个die专属的网卡上的RDMA网口建立连接,并创建用于交互数据的队列及数据内存。其中,一个die专属的网卡上有多个RDMA网口,一个RDMA网口可以连一个主机。同一个主机可以连多个die专属的网卡上的RDMA网口,此时该主机与每个die之间有一条专属的通信链路;同一个主机可以连单一一个die专属的网卡上的多个RDMA网口,此时该主机与该die有一条专属的通信链路,只是该通信链路包括多条路径。主机通过每个die的通信链路发现该die上的硬盘,并对硬盘进行管理和数据访问。
主机可以记录每条通信链路上发现的硬盘的信息,并通过通信链路发送读写请求,磁盘阵列中的相应die接收到读写请求,通过RDMA技术处理数据,并返回响应至主机。针对读请求,主机通过通信链路发送读请求到相应die,当前Die在自身中申请内存,通过NVMe/SAS等硬盘访问协议将数据读取到申请的内存中,通过RDMA将数据通过当前Die的网口发送到主机,通过以太网连接将读响应返回给主机。写请求类似,在此不再赘述。
本实施例按NUMA die划分CPU核、内存和网卡,通过实例绑定实现内存、网卡和硬盘资源的按die划分,提供的数据访问流程可避免跨NUMA die的数据访问。可见,通过在磁盘阵列中按照NUMA die进行PCIe(Peripheral Component Interconnect express,一种高速串行计算机扩展总线标准)网卡设备、内存资源和CPU核的资源分组,通过在每个die上连接仅看到当前die上盘的方式避免跨die访问,最终实现高性能。同时使用RDMA技术,实现磁盘阵列与主机的存算分离以及磁盘阵列存储空间的自由扩展,可提供更高性能的访问能力。
下面对本申请实施例提供的一种数据处理方法进行介绍,下文描述的一种数据处理方法与本文描述的其他实施例可以相互参照。
参见图3所示,本申请实施例公开了一种数据处理方法,应用于任意主机,该主机通过网络设备与磁盘阵列通信,磁盘阵列包括:多个CPU核组,每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。
本申请实施例提供的方法包括:
S301、通过网络设备探查磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存。
S302、与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路。
S303、通过通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
其中,每一CPU核组与其绑定的物理网卡、物理硬盘和物理内存,位于同一物理区域。也就是说,CPU核的划分是基于器件的物理布局实现的,并不仅仅实现了逻辑上的划分,更重要的是,不同CPU核组及其绑定的物理网卡、物理硬盘和物理内存的物理位置相近,处于磁盘阵列的处理器集成电路的同一电路区域。可见,不同CPU核组的物理布局是基于电路设计确定的。
在一种示例中,磁盘阵列按照负载均衡策略将自身中的所有CPU核划分至不同CPU核组,得到多个CPU核组;为每一CPU核组绑定至少一个物理内存的内存实例、至少一个物理网卡的网卡实例和至少一个硬盘的硬盘实例,以使每一CPU核组绑定专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。
在一种示例中,网络设备为网络交换机;网络交换机利用以太网协议使磁盘阵列和至少一个主机进行通信。
在一种示例中,任意主机与多个CPU核组中的单一CPU核组专属的物理网卡的RDMA(RemoteDirect Memory Access,远程直接数据存取)网口连接,以建立不被其他主机和其他CPU核组探查的RDMA通信链路,并通过RDMA通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
在一种示例中,任意主机在自身中为每一通信链路创建访问队列以及内存区。
在一种示例中,任意主机通过NVMe协议和/或SAS协议访问当前CPU核组绑定的物理硬盘。
在一种示例中,任意CPU核组若接收的访问请求为读请求,则在当前CPU核组绑定的物理内存中申请内存区,从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区,通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机。释放读请求占用的内存资源。
在一种示例中,任意CPU核组在从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区的同时,从该物理硬盘中读取与目标数据的关联度大于预设阈值的关联数据至所申请的内存区;在通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机之后,保留所申请的内存区中的目标数据和关联数据。
在一种示例中,任意CPU核组计算当前CPU核组绑定的物理硬盘中的其他数据的数据关键信息与目标数据的数据关键信息之间的关联度;数据关键信息包括:数据存储地址、哈希值和/或元数据。
在一种示例中,任意CPU核组若接收的访问请求为写请求,则在当前CPU核组绑定的物理内存中申请内存区,将写请求要写的数据写入所申请的内存区,将所申请内存区中的数据写入当前CPU核组绑定的物理硬盘,通过当前CPU核组绑定的物理网卡返回写请求完成消息至写请求对应的主机。
其中,关于本实施例中各个模块、单元更加具体的工作过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
可见,在本实施例中,磁盘阵列的每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存,实现了磁盘阵列中物理网卡资源、物理硬盘资源和物理内存资源的隔离和划分;任意主机通过网络设备与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的专属的通信链路,那么一个CPU核组(即一个die)和一个主机就有一个专用的通信链路通信,使得该主机访问该CPU核组以及与绑定的物理硬盘和物理内存,而不用跨die访问,访问路径得到了缩短,节约了计算机资源,提升了访问性能和访问效率。
下面对本申请实施例提供的一种电子设备进行介绍,下文描述的一种电子设备与本文描述的其他实施例可以相互参照。
参见图4所示,本申请实施例公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现上述任意实施例公开的方法。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:通过网络设备探查磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路;通过通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:按照负载均衡策略将自身中的所有CPU核划分至不同CPU核组,得到多个CPU核组;为每一CPU核组绑定至少一个物理内存的内存实例、至少一个物理网卡的网卡实例和至少一个硬盘的硬盘实例,以使每一CPU核组绑定专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:与多个CPU核组中的单一CPU核组专属的物理网卡的RDMA(RemoteDirectMemory Access,远程直接数据存取)网口连接,以建立不被其他主机和其他CPU核组探查的RDMA通信链路,并通过RDMA通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:在自身中为每一通信链路创建访问队列以及内存区。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:通过NVMe协议和/或SAS协议访问当前CPU核组绑定的物理硬盘。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:若接收的访问请求为读请求,则在当前CPU核组绑定的物理内存中申请内存区,从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区,通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机。释放读请求占用的内存资源。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:在从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区的同时,从该物理硬盘中读取与目标数据的关联度大于预设阈值的关联数据至所申请的内存区;在通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机之后,保留所申请的内存区中的目标数据和关联数据。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:计算当前CPU核组绑定的物理硬盘中的其他数据的数据关键信息与目标数据的数据关键信息之间的关联度;数据关键信息包括:数据存储地址、哈希值和/或元数据。
在本实施例中,所述处理器执行所述存储器中保存的计算机程序时,可以具体实现以下步骤:若接收的访问请求为写请求,则在当前CPU核组绑定的物理内存中申请内存区,将写请求要写的数据写入所申请的内存区,将所申请内存区中的数据写入当前CPU核组绑定的物理硬盘,通过当前CPU核组绑定的物理网卡返回写请求完成消息至写请求对应的主机。
进一步的,本申请实施例还提供了一种电子设备。其中,上述电子设备既可以是如图5所示的服务器,也可以是如图6所示的终端。图5和图6均是根据一示例性实施例示出的电子设备结构图,图中的内容不能被认为是对本申请的使用范围的任何限制。
图5为本申请实施例提供的一种服务器的结构示意图。该服务器具体可以包括:至少一个处理器、至少一个存储器、电源、通信接口、输入输出接口和通信总线。其中,所述存储器用于存储计算机程序,所述计算机程序由所述处理器加载并执行,以实现前述任一实施例公开的数据处理中的相关步骤。
本实施例中,电源用于为服务器上的各硬件设备提供工作电压;通信接口能够为服务器创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统、计算机程序及数据等,存储方式可以是短暂存储或者永久存储。
其中,操作系统用于管理与控制服务器上的各硬件设备以及计算机程序,以实现处理器对存储器中数据的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序除了包括能够用于完成前述任一实施例公开的数据处理方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。数据除了可以包括应用程序的更新信息等数据外,还可以包括应用程序的开发商信息等数据。
图6为本申请实施例提供的一种终端的结构示意图,该终端具体可以包括但不限于智能手机、平板电脑、笔记本电脑或台式电脑等。
通常,本实施例中的终端包括有:处理器和存储器。
其中,处理器可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central Processing Unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器还可以包括AI(ArtificialIntelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。本实施例中,存储器至少用于存储以下计算机程序,其中,该计算机程序被处理器加载并执行之后,能够实现前述任一实施例公开的由终端侧执行的数据处理方法中的相关步骤。另外,存储器所存储的资源还可以包括操作系统和数据等,存储方式可以是短暂存储或者永久存储。其中,操作系统可以包括Windows、Unix、Linux等。数据可以包括但不限于应用程序的更新信息。
在一些实施例中,终端还可包括有显示屏、输入输出接口、通信接口、传感器、电源以及通信总线。
本领域技术人员可以理解,图6中示出的结构并不构成对终端的限定,可以包括比图示更多或更少的组件。
下面对本申请实施例提供的一种可读存储介质进行介绍,下文描述的一种可读存储介质与本文描述的其他实施例可以相互参照。
一种可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现前述实施例公开的数据处理方法。其中,可读存储介质为计算机可读存储介质,其作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统、计算机程序及数据等,存储方式可以是短暂存储或者永久存储。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:通过网络设备探查磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;与多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路;通过通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:按照负载均衡策略将自身中的所有CPU核划分至不同CPU核组,得到多个CPU核组;为每一CPU核组绑定至少一个物理内存的内存实例、至少一个物理网卡的网卡实例和至少一个硬盘的硬盘实例,以使每一CPU核组绑定专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:与多个CPU核组中的单一CPU核组专属的物理网卡的RDMA(RemoteDirect Memory Access,远程直接数据存取)网口连接,以建立不被其他主机和其他CPU核组探查的RDMA通信链路,并通过RDMA通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:在自身中为每一通信链路创建访问队列以及内存区。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:通过NVMe协议和/或SAS协议访问当前CPU核组绑定的物理硬盘。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:若接收的访问请求为读请求,则在当前CPU核组绑定的物理内存中申请内存区,从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区,通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机。释放读请求占用的内存资源。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:在从当前CPU核组绑定的物理硬盘中读取读请求要读取的目标数据至所申请的内存区的同时,从该物理硬盘中读取与目标数据的关联度大于预设阈值的关联数据至所申请的内存区;在通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至读请求对应的主机之后,保留所申请的内存区中的目标数据和关联数据。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:计算当前CPU核组绑定的物理硬盘中的其他数据的数据关键信息与目标数据的数据关键信息之间的关联度;数据关键信息包括:数据存储地址、哈希值和/或元数据。
在本实施例中,所述处理器执行的计算机程序,可以具体实现以下步骤:若接收的访问请求为写请求,则在当前CPU核组绑定的物理内存中申请内存区,将写请求要写的数据写入所申请的内存区,将所申请内存区中的数据写入当前CPU核组绑定的物理硬盘,通过当前CPU核组绑定的物理网卡返回写请求完成消息至写请求对应的主机。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的可读存储介质中。
本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (15)
1.一种数据处理系统,其特征在于,包括:磁盘阵列、网络设备和至少一个主机;
所述磁盘阵列包括:多个CPU核组,每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存;
所述网络设备用于:使所述磁盘阵列和所述至少一个主机进行通信;
任意主机用于:通过所述网络设备探查所述磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;与所述多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路,并通过所述通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
2.根据权利要求1所述的系统,其特征在于,所述磁盘阵列用于:按照负载均衡策略将自身中的所有CPU核划分至不同CPU核组,得到所述多个CPU核组;
相应地,所述磁盘阵列还用于:为每一CPU核组绑定至少一个物理内存的内存实例、至少一个物理网卡的网卡实例和至少一个硬盘的硬盘实例,以使每一CPU核组绑定专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存。
3.根据权利要求1所述的系统,其特征在于,所述网络设备为网络交换机;
相应地,所述网络交换机用于:利用以太网协议使所述磁盘阵列和所述至少一个主机进行通信。
4.根据权利要求1所述的系统,其特征在于,任意主机具体用于:与所述多个CPU核组中的单一CPU核组专属的物理网卡的RDMA网口连接,以建立不被其他主机和其他CPU核组探查的RDMA通信链路,并通过所述RDMA通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
5.根据权利要求1所述的系统,其特征在于,任意主机还用于:在自身中为每一通信链路创建访问队列以及内存区。
6.根据权利要求1所述的系统,其特征在于,物理硬盘为NVMe硬盘和/或SAS硬盘;
相应地,任意主机具体用于:通过NVMe协议和/或SAS协议访问当前CPU核组绑定的物理硬盘。
7.根据权利要求1至6任意一项所述的系统,其特征在于,所述磁盘阵列还包括:主控制器;
相应地,所述主控制器用于:接收任意主机发送的访问请求,根据所述访问请求的目的端口将所述访问请求转发至相应CPU核组。
8.根据权利要求1至6任意一项所述的系统,其特征在于,任意CPU核组具体用于:若接收的访问请求为读请求,则在当前CPU核组绑定的物理内存中申请内存区,从当前CPU核组绑定的物理硬盘中读取所述读请求要读取的目标数据至所申请的内存区,通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至所述读请求对应的主机。
9.根据权利要求8所述的系统,其特征在于,任意CPU核组还用于:释放所述读请求占用的内存资源。
10.根据权利要求8所述的系统,其特征在于,任意CPU核组还用于:在从当前CPU核组绑定的物理硬盘中读取所述读请求要读取的目标数据至所申请的内存区的同时,从该物理硬盘中读取与所述目标数据的关联度大于预设阈值的关联数据至所申请的内存区;在通过当前CPU核组绑定的物理网卡将内存区中的目标数据发送至所述读请求对应的主机之后,保留所申请的内存区中的所述目标数据和所述关联数据。
11.根据权利要求10所述的系统,其特征在于,任意CPU核组具体用于:计算当前CPU核组绑定的物理硬盘中的其他数据的数据关键信息与所述目标数据的数据关键信息之间的关联度;数据关键信息包括:数据存储地址、哈希值和/或元数据。
12.根据权利要求1至6任意一项所述的系统,其特征在于,任意CPU核组具体用于:若接收的访问请求为写请求,则在当前CPU核组绑定的物理内存中申请内存区,将所述写请求要写的数据写入所申请的内存区,将所申请内存区中的数据写入当前CPU核组绑定的物理硬盘,通过当前CPU核组绑定的物理网卡返回写请求完成消息至所述写请求对应的主机。
13.一种数据处理方法,其特征在于,应用于任意主机,该主机通过网络设备与磁盘阵列通信,所述磁盘阵列包括:多个CPU核组,每一CPU核组绑定有专属的、不被其他CPU核组探查的物理网卡、物理硬盘和物理内存;
该方法包括:
通过所述网络设备探查所述磁盘阵列中的每一CPU核组绑定的物理网卡、物理硬盘和物理内存;
与所述多个CPU核组中的单一CPU核组专属的物理网卡,建立不被其他主机和其他CPU核组探查的通信链路;
通过所述通信链路访问当前CPU核组、以及与当前CPU核组绑定的物理硬盘和物理内存。
14.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求13所述的方法。
15.一种可读存储介质,其特征在于,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求13所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410066357.3A CN117591450B (zh) | 2024-01-17 | 2024-01-17 | 一种数据处理系统、方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410066357.3A CN117591450B (zh) | 2024-01-17 | 2024-01-17 | 一种数据处理系统、方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117591450A true CN117591450A (zh) | 2024-02-23 |
CN117591450B CN117591450B (zh) | 2024-03-22 |
Family
ID=89918638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410066357.3A Active CN117591450B (zh) | 2024-01-17 | 2024-01-17 | 一种数据处理系统、方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117591450B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117873931A (zh) * | 2024-03-11 | 2024-04-12 | 浪潮电子信息产业股份有限公司 | 一种数据处理系统、方法及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115344197A (zh) * | 2019-06-24 | 2022-11-15 | 华为技术有限公司 | 一种数据访问方法、网卡及服务器 |
CN116866167A (zh) * | 2023-07-03 | 2023-10-10 | 无锡沐创集成电路设计有限公司 | 一种网卡混合亲核的硬件绑定方法、装置及存储介质 |
-
2024
- 2024-01-17 CN CN202410066357.3A patent/CN117591450B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115344197A (zh) * | 2019-06-24 | 2022-11-15 | 华为技术有限公司 | 一种数据访问方法、网卡及服务器 |
CN116866167A (zh) * | 2023-07-03 | 2023-10-10 | 无锡沐创集成电路设计有限公司 | 一种网卡混合亲核的硬件绑定方法、装置及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117873931A (zh) * | 2024-03-11 | 2024-04-12 | 浪潮电子信息产业股份有限公司 | 一种数据处理系统、方法及介质 |
CN117873931B (zh) * | 2024-03-11 | 2024-06-07 | 浪潮电子信息产业股份有限公司 | 一种数据处理系统、方法及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117591450B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10445018B2 (en) | Switch and memory device | |
CN114020655A (zh) | 一种内存扩展方法、装置、设备及存储介质 | |
US11829309B2 (en) | Data forwarding chip and server | |
US9213500B2 (en) | Data processing method and device | |
CN106776358B (zh) | Dimm ssd寻址性能技术 | |
CN117591450B (zh) | 一种数据处理系统、方法、设备及介质 | |
CN114546913B (zh) | 一种基于pcie接口的多主机之间数据高速交互的方法和装置 | |
CN105408875A (zh) | 在存储器接口上的分布式过程执行和文件系统 | |
WO2022032990A1 (zh) | 一种命令信息传输方法、系统、装置及可读存储介质 | |
WO2023103704A1 (zh) | 数据处理方法、存储介质和处理器 | |
US10853255B2 (en) | Apparatus and method of optimizing memory transactions to persistent memory using an architectural data mover | |
CN115840620A (zh) | 一种数据通路构建方法、设备及介质 | |
CN117312229B (zh) | 一种数据传输装置、数据处理设备、系统、方法及介质 | |
CN104598404A (zh) | 计算设备扩展方法和装置、以及可扩展的计算系统 | |
US9921753B2 (en) | Data replication across host systems via storage controller | |
US20220342835A1 (en) | Method and apparatus for disaggregation of computing resources | |
CN116204448A (zh) | 一种多端口固态硬盘及其控制方法、装置、介质、服务器 | |
CN115543246A (zh) | 一种bmc和服务器 | |
CN112711442B (zh) | 一种主机命令写入方法、设备、系统及可读存储介质 | |
CN112732176B (zh) | 基于fpga的ssd访问方法及装置、存储系统及存储介质 | |
CN106325377B (zh) | 外部设备扩展卡及输入输出外部设备的数据处理方法 | |
CN114327248A (zh) | 存储节点、存储设备及网络芯片 | |
CN116601616A (zh) | 一种数据处理装置、方法及相关设备 | |
CN118409712B (zh) | 一种raid卡管理系统、方法、设备、产品及介质 | |
CN118363914B (zh) | 数据处理方法、固态硬盘设备及主机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |