CN115934366A - 服务器存储扩展方法、装置、设备、介质及整机柜系统 - Google Patents
服务器存储扩展方法、装置、设备、介质及整机柜系统 Download PDFInfo
- Publication number
- CN115934366A CN115934366A CN202310247201.0A CN202310247201A CN115934366A CN 115934366 A CN115934366 A CN 115934366A CN 202310247201 A CN202310247201 A CN 202310247201A CN 115934366 A CN115934366 A CN 115934366A
- Authority
- CN
- China
- Prior art keywords
- memory
- target server
- memory device
- server
- remote memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000015654 memory Effects 0.000 claims abstract description 337
- 238000011176 pooling Methods 0.000 claims abstract description 37
- 230000010354 integration Effects 0.000 claims abstract description 29
- 238000005516 engineering process Methods 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims description 27
- 238000004891 communication Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 11
- 239000000758 substrate Substances 0.000 claims description 8
- 238000011144 upstream manufacturing Methods 0.000 claims description 6
- 230000001427 coherent effect Effects 0.000 claims description 5
- 238000007726 management method Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Memory System Of A Hierarchy Structure (AREA)
Abstract
本申请涉及存储技术领域,具体公开了一种服务器存储扩展方法、装置、设备、介质及整机柜系统,包括:基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。可见,本申请能够最大限度提升内存容量,满足数据密集型应用对的内存需求。
Description
技术领域
本发明涉及存储技术领域,特别涉及一种服务器存储扩展方法、装置、设备、介质及整机柜系统。
背景技术
内存是计算机必不可少的组成部分,它用于暂时存放处理器中的运算数据,以及与硬盘等外部存储器交换的数据。它是外存与处理器进行沟通的桥梁,计算机中所有程序的运行都在内存中进行,内存性能的强弱影响计算机整体发挥的水平。现有服务器的处理器和内存之间架构主要包括UMA架构和NUMA架构。UMA主要特点为多个处理器通过同一根总线来访问内存。无论多个处理器是访问内存的不同内存单元还是相同的内存单元,同一时刻,只有一个处理器能够访问内存。NUMA架构为每个处理器都分配了一块内存,多个处理器可以同时并行访问各自的内存,相比于UMA提高了内存读写速率,利于多处理器互连的服务器架构。但随着计算密度越来越高,单一的NUMA架构中的内存资源扩展能力落后于计算密度的增长,平均到每个核心处理器的内存和持续下降,而指数增长数据对内存容量需求越来越大,部分场景下不得不通过牺牲性能来换取容量。
因此,上述技术问题亟待本领域技术人员解决。
发明内容
有鉴于此,本发明的目的在于提供一种服务器存储扩展方法、装置、设备、介质及整机柜系统,能够最大限度提升内存容量,满足数据密集型应用对的内存需求。其具体方案如下:
本申请的第一方面提供了一种服务器存储扩展方法,包括:
基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;
分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
可选的,所述基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备,包括:
基于池化技术将多个内存条和/或内存块进行资源集成,得到包含多个所述内存条和/或所述内存块的远端内存盒子;所述远端内存盒子位于所述目标服务器的外部。
可选的,所述分别将各个目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,包括:
针对各个所述目标服务器,在所述目标服务器与所述远端内存设备之间部署缓存一致性总线,得到基于缓存一致性协议的所述互联网络。
可选的,所述在所述目标服务器与所述远端内存设备之间部署缓存一致性总线之后,还包括:
针对各个所述目标服务器,将所述缓存一致性总线的上行接口与所述目标服务器连接,并将所述缓存一致性总线的下行接口与所述远端内存设备连接。
可选的,所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器的高速串行计算机扩展总线标准接口连接。
可选的,所述目标服务器的高速串行计算机扩展总线标准接口的物理载体为CDFP线缆。
可选的,所述将所述缓存一致性总线的下行接口与所述远端内存设备连接,包括:
将所述缓存一致性总线的下行接口与所述远端内存设备中的各个所述内存组件连接。
可选的,各个所述目标服务器包含多个处理器;
所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器中的各个所述处理器连接。
可选的,所述服务器存储扩展方法,还包括:
在各个所述目标服务器中部署近端内存设备,使得各个所述目标服务器按照并行方式对所述近端内存设备提供的内存资源进行访问。
可选的,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享,包括:
各个所述目标服务器通过所述互联网络按照串行方式对所述远端内存设备提供的内存资源进行访问。
可选的,所述服务器存储扩展方法,还包括:
将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统。
可选的,所述将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,包括:
根据应用场景确定出所述目标服务器与所述远端内存设备的数量关系;
按照所述数量关系在整机柜中部署相应数量的所述目标服务器及所述远端内存设备。
可选的,所述整机柜系统中还部署有管理设备及供电设备;其中,所述管理设备用于对整机进行管理,所述供电设备用于对整机进行供电。
可选的,所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。
可选的,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享之前,还包括:
控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
可选的,所述控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源,包括:
利用所述基板管理控制器对各个所述目标服务器进行扫描,以确定各个所述目标服务器的设备编号及挂载资源,得到所述目标服务器的所需资源信息;
针对设备类型为上行设备的所述目标服务器,确定出该上行设备的下行设备及与各下行设备之间的映射关系,并根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
可选的,所述根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源之后,还包括:
控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。
可选的,所述缓存一致性协议为CXL协议,所述远端内存设备为CXL设备。
本申请的第二方面提供了一种整机柜系统,包括部署在一个整机柜中的目标服务器和包含多个内存组件远端的内存设备,其中:
所述远端内存设备位于所述目标服务器的外部,基于池化技术将多个内存组件进行资源集成得到;
各个所述目标服务器与所述远端内存设备之间建立基于缓存一致性协议的互联网络,各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
本申请的第三方面提供了一种服务器存储扩展装置,包括:
资源集成模块,用于基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;
资源共享模块,用于分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
本申请的第四方面提供了一种电子设备,所述电子设备包括处理器和存储器;其中所述存储器用于存储计算机程序,所述计算机程序由所述处理器加载并执行以实现前述服务器存储扩展方法。
本申请的第五方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现前述服务器存储扩展方法。
本申请中,本申请实施例先基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;然后分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
本申请的有益效果如下:本申请通过对多个内存组件进行资源池化集成得到一个远端内存设备,该远端内存设备作为多个目标服务器的扩展内存,在目标服务器的近端内存无法满足应用需求时,多个目标服务器通过与该远端内存设备之间建立的基于缓存一致性协议的互联网络进行资源共享,最大限度提升内存容量,满足数据密集型应用对的内存需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种服务器存储扩展方法流程图;
图2为本申请提供的一种具体的服务器的处理器与内存互联示例图;
图3为本申请提供的一种具体的服务器存储扩展方法流程图;
图4为本申请提供的一种具体的服务器存储扩展方法流程图;
图5为本申请提供的一种具体的内存资源池整机柜系统的物理结构示例图;
图6为本申请提供的一种服务器存储扩展装置结构示意图;
图7为本申请提供的一种服务器存储扩展电子设备结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有服务器的处理器和内存之间的NUMA架构虽然相比于UMA架构提高了内存读写速率,利于多处理器互连的服务器架构。但随着计算密度越来越高,单一的NUMA架构中的内存资源扩展能力落后于计算密度的增长,平均到每个核心处理器的内存和持续下降,而指数增长数据对内存容量需求越来越大,部分场景下不得不通过牺牲性能来换取容量。针对上述技术缺陷,本申请提供一种服务器存储扩展方案,通过对多个内存组件进行资源池化集成得到一个远端内存设备,该远端内存设备作为多个目标服务器的扩展内存,在目标服务器的近端内存无法满足应用需求时,多个目标服务器通过与该远端内存设备之间建立的基于缓存一致性协议的互联网络进行资源共享,最大限度提升内存容量,满足数据密集型应用对的内存需求。
图1为本申请实施例提供的一种服务器存储扩展方法流程图。参见图1所示,该服务器存储扩展方法包括:
S11:基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备。
本实施例中,先基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;其中,所述远端内存设备位于目标服务器的外部。具体的,基于池化技术将多个内存条和/或内存块进行资源集成,得到包含多个所述内存条和/或所述内存块的远端内存盒子。即所述内存组件可以为内存条或内存块,所述远端内存设备可以为远端内存盒子。即所述远端内存盒子位于所述目标服务器的外部。
可以理解,池化技术指提前准备一些资源,在需要时可以重复使用这些预先准备的资源。本实施例是将多个所述内存组件预先集成至一个内存资源池,也即远端内存设备。这个远端内存设备作为目标服务器的扩展内存,在目标服务器的近端内存无法满足应用需求时,多个目标服务器可以共享该远端内存设备中的内存资源。需要注意的是,所述远端内存设备是独立于所述目标服务器的,也即所述远端内存设备位于目标服务器的外部,这种将内存资源池从普通的服务器中分离出来的方案,有极高的兼容性。
S12:分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
本实施例中,在得到包含多个所述内存组件的远端内存设备之后,分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。缓存一致性协议为解决多核以及多处理器的多个缓存之间的数据不一致而提出,它用于保证多个处理器cache之间缓存共享数据的一致性,它定义了Cache Line的四种数据状态,而处理器对cache的四种操作可能会产生不一致的状态。因此缓存控制器监听到本地操作与远程操作的时候需要对地址一致的Cache Line状态做出一定的修改,即当数据的一个副本发生更改时,其他副本必须反映该更改,从而保证数据在多个cache之间流转的一致性。
具体的,本实施例中的所述缓存一致性协议可以为CXL协议,相应的,所述远端内存设备为CXL设备。CXL是一种缓存一致性互连协议,旨在帮助系统(尤其是具有加速器的系统)更高效地运行,用于处理器、内存扩展和加速器的高速缓存一致性互连协议。CXL使用三个主要协议(CXL.io、CXL.cache、CXL.memory / CXL.mem),其中,CXL.io是用于初始化、链接、侦测设备和枚举以及注册访问的协议。它为I/O 设备提供了一个非连贯的加载存储接口,类似于PCIe Gen5,CXL设备也必须支持CXL.io。CXL.cache是定义主机(通常是处理器)和设备(例如CXL内存模块或加速器)之间交互的协议。这允许CXL设备以低延迟访问缓存在主机内存的数据。可以将其理解为 GPU直接缓存数据在处理器的内存中。CXL.memory/CXL.mem 是为主机处理器(通常是处理器)提供使用加载/存储命令直接访问设备内存的协议。可以将其理解为处理器直接使用GPU或加速器上的内存。CXL.io是CXL中必需的,可以和CXL.cache或CXL.mem任意组合。
CXL技术在处理器内存空间和附加设备上的内存之间保持一致性,这允许资源共享以获得更高的性能,减少软件堆栈的复杂性,并降低整体系统成本。这使用户能够简单地关注目标工作负载,而不是加速器中多余的内存管理硬件。CXL被设计为高速通信的行业开放标准接口,因为加速器越来越多地被用来补充处理器,以支持人工智能和机器学习等新兴应用。CXL 2.0规范相比1.1版本增加了对扇出切换的支持,以连接到更多的设备,为提高内存利用效率和按需提供内存容量的内存池,以及对持久性内存的支持。可见,CXL总线技术趋于成熟,使得以计算为中心的架构向以数据为中心的架构进行转变。基于CXL总线协议,可以实现内存远端拓展,多主机共享内存,协议未来可以基于CXL switch实现主机与设备松耦合分布式内存共享。同时,随着缓存一致性协议的发展,主流内存形态逐步由并行内存转变为并行内存与串行内存共存,在串行内存远端拓展协议中,CXL总线技术未来具有广阔的应用前景,因此基于CXL开发串行内存池化项目,符合资源池化背景需求,可最大限度提升系统内存容量,满足多场景下系统对内存容量的需求。
本实施例中,建立互联网络的过程为:针对各个所述目标服务器,在所述目标服务器与所述远端内存设备之间部署缓存一致性总线,得到基于缓存一致性协议的所述互联网络。具体的,针对各个所述目标服务器,将所述缓存一致性总线的上行接口与所述目标服务器连接,并将所述缓存一致性总线的下行接口与所述远端内存设备连接。进一步的,将所述缓存一致性总线的上行接口与所述目标服务器的高速串行计算机扩展总线标准接口连接。所述高速串行计算机扩展总线标准接口(peripheral component interconnect express)即PCIE接口,所述目标服务器的高速串行计算机扩展总线标准接口的物理载体为CDFP线缆。
本实施例中,如果所述目标服务器包含多个处理器,在将所述缓存一致性总线的上行接口与所述目标服务器连接时,主要是将所述缓存一致性总线的上行接口与所述目标服务器中的各个所述处理器连接。在将所述缓存一致性总线的下行接口与所述远端内存设备连接时,主要是将所述缓存一致性总线的下行接口与所述远端内存设备中的各个所述内存组件连接。
另外,在各个所述目标服务器中还部署有近端内存设备,使得各个所述目标服务器按照并行方式对所述近端内存设备提供的内存资源进行访问。在所述近端内存设备不能满足内存需求时,各个所述目标服务器通过所述互联网络按照串行方式对所述远端内存设备提供的内存资源进行访问。即所述近端内存设备为并行内存,所述目标服务器对近端内存设备的访问方式是并行访问。所述远端内存设备为串行内存,所述目标服务器对远端内存设备的访问方式是串行访问。在所述远端内存设备为CXL缓存一致性总线扩展处理器远端内存盒子时,能够在高计算密度,高数据量场景下,实现内存资源池化共享。
图2所示为服务器的处理器与内存互联示例图,缓存一致性总线上连接两种内存形式,一种是传统的由处理器直出的内存,在服务器设计中一般分布在处理器的两侧 ,称之为近端内存设备;另一种是基于CXL的内存资源池,经PCIE链路连接至处理器,CXL 使用PCIE总线的物理层,作为处理器的内存资源使用,称之为远端内存设备。本发明将远端内存集成在一个“盒子”内,盒子内部不含处理器,可以看作它是从普通服务器中分离出来的一部分,经过CDFP线缆与服务器主机相连。
可见,本申请实施例先基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;其中,所述远端内存设备位于目标服务器的外部;然后分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。本申请实施例通过对多个内存组件进行资源池化集成得到一个远端内存设备,该远端内存设备作为多个目标服务器的扩展内存,在目标服务器的近端内存无法满足应用需求时,多个目标服务器通过与该远端内存设备之间建立的基于缓存一致性协议的互联网络进行资源共享,最大限度提升内存容量,满足数据密集型应用对的内存需求。
图3为本申请实施例提供的一种具体的服务器存储扩展方法流程图。参见图3所示,该服务器存储扩展方法包括:
S21:基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备。
S22:分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
本实施例中,关于上述步骤S21和步骤S22的具体过程,可以参考前述实施例中公开的相应内容,在此不再进行赘述。
S23:将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统;所述整机柜系统中还部署有管理设备及供电设备;所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。
本实施例中,为了适应高密度、一体化交付、集中管理的需求,可以进一步将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统。所述整机柜系统中部署的所述目标服务器包含多处理器、内存、网卡等设备,硬件架构不做特殊设计。所述远端内存设备通过CDFP线缆与所述目标服务器相连。另外,所述整机柜系统中还部署有管理设备及供电设备;所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。其中,所述管理设备用于对整机进行管理,所述供电设备用于对整机进行供电。
综上所述,所述整机柜系统的整体硬件架构为所述目标服务器、所述远端内存设备、管理设备以及供电设备。所述内存设备为内存板,内存板的CDFP接口通过CDFP线缆与所述目标服务器互连,实现为每个整机柜系统的每个所述目标服务器拓展串行内存,所述管理设备为管理板,管理板上的基板管理控制器BMC(Baseboard Management Controller)和复杂可编程逻辑器件CPLD(Complex Programmable Logic Device)负责整机管理,包含但不限于散热控制、整机上下电、状态指示、与整机柜各个服务器交互等。
本实施例中,在部署之前,可以按照应用场景配置所述远端内存设备与所述目标服务器之间的数量关系。具体的,先根据应用场景确定出所述目标服务器与所述远端内存设备的数量关系,然后按照所述数量关系在整机柜中部署相应数量的所述目标服务器及所述远端内存设备。例如,根据应用场景确定出所述目标服务器与所述远端内存设备的数量关系为10:1,此时在整机柜中部署20台所述目标服务器和2个所述远端内存设备。上述过程在不增加服务器主机访问内存延迟的情况下,基于CXL的内存盒子的服务器整机柜架构系统可以大幅度提升内存量和带宽。同时这种将内存资源池从普通的服务器整机中分离出来的方案,有极高的兼容性,在选择整机柜资源时,可以按照应用场景配置内存盒子与服务器主机之间的数量关系。
S24:控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
本实施例中,在所述整机柜系统中进行资源共享时,主要是控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。主要包括如下步骤(图4所示):
S241:利用所述基板管理控制器对各个所述目标服务器进行扫描,以确定各个所述目标服务器的设备编号及挂载资源,得到所述目标服务器的所需资源信息。
S242:针对设备类型为上行设备的所述目标服务器,确定出该上行设备的下行设备及与各下行设备之间的映射关系,并根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
本实施例中,先利用所述基板管理控制器对各个所述目标服务器进行扫描,以确定各个所述目标服务器的设备编号及挂载资源,得到所述目标服务器的所需资源信息。在此基础上,针对设备类型为上行设备的所述目标服务器,确定出该上行设备的下行设备及与各下行设备之间的映射关系,并根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
在整机柜系统中,基板管理控制器BMC作为带外管理中心,在系统运行之前,先通过扫描每个服务器的设备编号(ID)和挂载资源,设备编号能够反映服务器是哪种服务器(如内存资源服务器,GPU加速计算服务器、硬盘资源服务器等),不同的服务器和不同的挂载资源决定了该目标服务器的所需资源信息。同时,基板管理控制器BMC还需要区分上行设备和下行设备并确定上行设备与下行设备之间的映射关系,这个映射关系是整机柜系统运行的基础。上行设备是具有大量的PCIe资源的服务器供下行设备使用,它具有高性能的CPU。CXL 是基于 PCIE5.0发展而来的,运行在 PCIE 物理层上的,具有相同的电气特性,针对缓存和内存优化的一个新协议。PCIe设备要访问主机内存,一般是使用直接存储器访问技术DMA,且主机无法缓存PCIe设备的数据。在CXL中,利用三个子协议(CXL.io、CXL.cache、CXL.mem)为主机和需要共享内存资源的设备(例如加速器和内存扩展器)之间的内存访问提供了低延迟的访问路径以及缓存一致性保证。
S25:控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。
本实施例中,控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。另外,各个所述目标服务器通过所述互联网络按照串行方式对所述远端内存设备提供的内存资源进行访问。
本实施例还相应提供一种整机柜系统,包括部署在一个整机柜中的目标服务器和包含多个内存组件远端的内存设备,其中:所述远端内存设备位于所述目标服务器的外部,基于池化技术将多个内存组件进行资源集成得到;各个所述目标服务器与所述远端内存设备之间建立基于缓存一致性协议的互联网络,各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。图5为一种具体的内存资源池整机柜系统的物理结构示例图,图中基于CXL内存资源池的整机柜系统中,每台服务器都是既有近端内存也有远端内存的动态组合,近端内存供内存直连的处理器操作,而远端的基于CXL的内存则经机柜内各个服务器间的互连网络形成一个内存池,可以由各个服务器共享,互连网络为任意服务器主机访问资源池中的任意一块内存提供硬件链路。而各个服务器的处理器通过BMC通信,进行内存的动态分配,使得内存不再是属于某一个服务器的独占资源,通过对主机和内存的动态映射关系的控制,实现内存的按需分配。这种近端内存和远端内存组合的服务器系统架构,对内存资源的聚合和分配就像水池对于水的汇合和分流,因此称为内存资源池化。
下面从实际应用层面举例说明本实施例的整机柜优势。假设整机柜中有20台服务器,每个服务器都有1TB的内存,虽然整机柜共有20TB的内存块,但是服务器的任何应用程序的内存都限制在1TB。将基于CXL的内存资源池盒子组装进机柜中,那么这20台服务器组成的机柜,其中每台服务器都有512GB的内存,还有经过CDFP线缆连接的2台内存盒子,各具有5TB容量的内存。整机柜系统的内存总量与以前同为20TB,但每台服务器除了512GB的近端内存外,还有10TB的内存资源池可以共享。内存中的应用程序可以分配10.5TB的DRAM,是以前的10倍,这从根本上提升了系统内存容量。由此可见,本实施例提出的一种高计算密度,高数据量场景下,当处理器近端内存无法满足应用需求时,通过设计一种CXL缓存一致性总线扩展处理器远端内存盒子,实现内存资源池化的服务器整机柜系统。
可见,本申请实施例先基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;其中,所述远端内存设备位于目标服务器的外部,然后分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。接着将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统;所述整机柜系统中还部署有管理设备及供电设备;所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。在此基础上,控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。最后控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。本申请实施例解决高计算密度,高数据量场景下,处理器近端内存无法满足应用需求时,通过设计一种CXL缓存一致性总线扩展处理器远端内存设备,将其作为服务器整机柜系统的内存资源池,最大限度提升系统内存容量,满足高性能计算、人工智能等数据密集型应用日益增长的需求。
参见图6所示,本申请实施例还相应公开了一种服务器存储扩展装置,包括:
资源集成模块11,用于基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;
资源共享模块12,用于分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
本申请中,本申请实施例先基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;然后分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。可见,本申请通过对多个内存组件进行资源池化集成得到一个远端内存设备,该远端内存设备作为多个目标服务器的扩展内存,在目标服务器的近端内存无法满足应用需求时,多个目标服务器通过与该远端内存设备之间建立的基于缓存一致性协议的互联网络进行资源共享,最大限度提升内存容量,满足数据密集型应用对的内存需求。
在一些具体实施例中,所述资源集成模块11,具体用于基于池化技术将多个内存条和/或内存块进行资源集成,得到包含多个所述内存条和/或所述内存块的远端内存盒子;所述远端内存盒子位于所述目标服务器的外部。
在一些具体实施例中,所述服务器存储扩展装置还包括:
接口连接模块,用于针对各个所述目标服务器,将所述缓存一致性总线的上行接口与所述目标服务器连接,并将所述缓存一致性总线的下行接口与所述远端内存设备连接;
并行访问模块,用于在各个所述目标服务器中部署近端内存设备,使得各个所述目标服务器按照并行方式对所述近端内存设备提供的内存资源进行访问;
串行访问模块,用于各个所述目标服务器通过所述互联网络按照串行方式对所述远端内存设备提供的内存资源进行访问;
整机部署模块,用于将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统;
通信控制模块,用于控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信;
动态分配模块,用于根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源;
关系激活模块,用于控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。
在一些具体实施例中,所述接口连接模块,具体包括:
上行连接单元,用于将所述缓存一致性总线的上行接口与所述目标服务器的高速串行计算机扩展总线标准接口连接;
下行连接单元,用于将所述缓存一致性总线的下行接口与所述远端内存设备中的各个所述内存组件连接。
在一些具体实施例中,所述服务器存储扩展装置中的所述目标服务器的高速串行计算机扩展总线标准接口的物理载体为CDFP线缆。
在一些具体实施例中,各个所述目标服务器包含多个处理器,所述上行连接单元,还用于将所述缓存一致性总线的上行接口与所述目标服务器中的各个所述处理器连接。
在一些具体实施例中,所述整机部署模块,具体包括:
关系确定单元,用于根据应用场景确定出所述目标服务器与所述远端内存设备的数量关系;
数量部署单元,用于按照所述数量关系在整机柜中部署相应数量的所述目标服务器及所述远端内存设备。
在一些具体实施例中,所述服务器存储扩展装置中的所述整机柜系统中还部署有管理设备及供电设备;其中,所述管理设备用于对整机进行管理,所述供电设备用于对整机进行供电。
在一些具体实施例中,所述服务器存储扩展装置中的所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。
在一些具体实施例中,所述服务器存储扩展装置中的所述缓存一致性协议为CXL协议,所述远端内存设备为CXL设备。
在一些具体实施例中,所述资源共享模块12,具体包括:
总线部署模块,用于针对各个所述目标服务器,在所述目标服务器与所述远端内存设备之间部署缓存一致性总线,得到基于缓存一致性协议的所述互联网络。
进一步的,本申请实施例还提供了一种电子设备。图7是根据一示例性实施例示出的电子设备20结构图,图中的内容不能认为是对本申请的使用范围的任何限制。
图7为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,至少实现如下步骤:
基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;
分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
可选的,所述基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备,包括:
基于池化技术将多个内存条和/或内存块进行资源集成,得到包含多个所述内存条和/或所述内存块的远端内存盒子;所述远端内存盒子位于所述目标服务器的外部。
可选的,所述分别将各个目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,包括:
针对各个所述目标服务器,在所述目标服务器与所述远端内存设备之间部署缓存一致性总线,得到基于缓存一致性协议的所述互联网络。
可选的,所述在所述目标服务器与所述远端内存设备之间部署缓存一致性总线之后,还包括:
针对各个所述目标服务器,将所述缓存一致性总线的上行接口与所述目标服务器连接,并将所述缓存一致性总线的下行接口与所述远端内存设备连接。
可选的,所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器的高速串行计算机扩展总线标准接口连接。
可选的,所述目标服务器的高速串行计算机扩展总线标准接口的物理载体为CDFP线缆。
可选的,所述将所述缓存一致性总线的下行接口与所述远端内存设备连接,包括:
将所述缓存一致性总线的下行接口与所述远端内存设备中的各个所述内存组件连接。
可选的,各个所述目标服务器包含多个处理器;
所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器中的各个所述处理器连接。
可选的,所述服务器存储扩展方法,还包括:
在各个所述目标服务器中部署近端内存设备,使得各个所述目标服务器按照并行方式对所述近端内存设备提供的内存资源进行访问。
可选的,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享,包括:
各个所述目标服务器通过所述互联网络按照串行方式对所述远端内存设备提供的内存资源进行访问。
可选的,所述服务器存储扩展方法,还包括:
将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统。
可选的,所述将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,包括:
根据应用场景确定出所述目标服务器与所述远端内存设备的数量关系;
按照所述数量关系在整机柜中部署相应数量的所述目标服务器及所述远端内存设备。
可选的,所述整机柜系统中还部署有管理设备及供电设备;其中,所述管理设备用于对整机进行管理,所述供电设备用于对整机进行供电。
可选的,所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。
可选的,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享之前,还包括:
控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
可选的,所述控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源,包括:
利用所述基板管理控制器对各个所述目标服务器进行扫描,以确定各个所述目标服务器的设备编号及挂载资源,得到所述目标服务器的所需资源信息;
针对设备类型为上行设备的所述目标服务器,确定出该上行设备的下行设备及与各下行设备之间的映射关系,并根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
可选的,所述根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源之后,还包括:
控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。
可选的,所述缓存一致性协议为CXL协议,所述远端内存设备为CXL设备。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源可以包括操作系统221、计算机程序222及数据223等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的服务器存储扩展方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本申请实施例还公开了一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器加载并执行时,至少实现如下步骤:
基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;
分别将各个所述目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
可选的,所述基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备,包括:
基于池化技术将多个内存条和/或内存块进行资源集成,得到包含多个所述内存条和/或所述内存块的远端内存盒子;所述远端内存盒子位于所述目标服务器的外部。
可选的,所述分别将各个目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,包括:
针对各个所述目标服务器,在所述目标服务器与所述远端内存设备之间部署缓存一致性总线,得到基于缓存一致性协议的所述互联网络。
可选的,所述在所述目标服务器与所述远端内存设备之间部署缓存一致性总线之后,还包括:
针对各个所述目标服务器,将所述缓存一致性总线的上行接口与所述目标服务器连接,并将所述缓存一致性总线的下行接口与所述远端内存设备连接。
可选的,所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器的高速串行计算机扩展总线标准接口连接。
可选的,所述目标服务器的高速串行计算机扩展总线标准接口的物理载体为CDFP线缆。
可选的,所述将所述缓存一致性总线的下行接口与所述远端内存设备连接,包括:
将所述缓存一致性总线的下行接口与所述远端内存设备中的各个所述内存组件连接。
可选的,各个所述目标服务器包含多个处理器;
所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器中的各个所述处理器连接。
可选的,所述服务器存储扩展方法,还包括:
在各个所述目标服务器中部署近端内存设备,使得各个所述目标服务器按照并行方式对所述近端内存设备提供的内存资源进行访问。
可选的,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享,包括:
各个所述目标服务器通过所述互联网络按照串行方式对所述远端内存设备提供的内存资源进行访问。
可选的,所述服务器存储扩展方法,还包括:
将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统。
可选的,所述将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,包括:
根据应用场景确定出所述目标服务器与所述远端内存设备的数量关系;
按照所述数量关系在整机柜中部署相应数量的所述目标服务器及所述远端内存设备。
可选的,所述整机柜系统中还部署有管理设备及供电设备;其中,所述管理设备用于对整机进行管理,所述供电设备用于对整机进行供电。
可选的,所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。
可选的,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享之前,还包括:
控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
可选的,所述控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源,包括:
利用所述基板管理控制器对各个所述目标服务器进行扫描,以确定各个所述目标服务器的设备编号及挂载资源,得到所述目标服务器的所需资源信息;
针对设备类型为上行设备的所述目标服务器,确定出该上行设备的下行设备及与各下行设备之间的映射关系,并根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
可选的,所述根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源之后,还包括:
控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。
可选的,所述缓存一致性协议为CXL协议,所述远端内存设备为CXL设备。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个…”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的服务器存储扩展方法、装置、设备、介质及整机柜系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (22)
1.一种服务器存储扩展方法,其特征在于,包括:
基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;
分别将各个目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
2.根据权利要求1所述的服务器存储扩展方法,其特征在于,所述基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备,包括:
基于池化技术将多个内存条和/或内存块进行资源集成,得到包含多个所述内存条和/或所述内存块的远端内存盒子;所述远端内存盒子位于所述目标服务器的外部。
3.根据权利要求1所述的服务器存储扩展方法,其特征在于,所述分别将各个目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,包括:
针对各个所述目标服务器,在所述目标服务器与所述远端内存设备之间部署缓存一致性总线,得到基于缓存一致性协议的所述互联网络。
4.根据权利要求3所述的服务器存储扩展方法,其特征在于,所述在所述目标服务器与所述远端内存设备之间部署缓存一致性总线之后,还包括:
针对各个所述目标服务器,将所述缓存一致性总线的上行接口与所述目标服务器连接,并将所述缓存一致性总线的下行接口与所述远端内存设备连接。
5.根据权利要求4所述的服务器存储扩展方法,其特征在于,所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器的高速串行计算机扩展总线标准接口连接。
6.根据权利要求5所述的服务器存储扩展方法,其特征在于,所述目标服务器的高速串行计算机扩展总线标准接口的物理载体为CDFP线缆。
7.根据权利要求4所述的服务器存储扩展方法,其特征在于,所述将所述缓存一致性总线的下行接口与所述远端内存设备连接,包括:
将所述缓存一致性总线的下行接口与所述远端内存设备中的各个所述内存组件连接。
8.根据权利要求7所述的服务器存储扩展方法,其特征在于,各个所述目标服务器包含多个处理器;
所述将所述缓存一致性总线的上行接口与所述目标服务器连接,包括:
将所述缓存一致性总线的上行接口与所述目标服务器中的各个所述处理器连接。
9.根据权利要求1所述的服务器存储扩展方法,其特征在于,还包括:
在各个所述目标服务器中部署近端内存设备,使得各个所述目标服务器按照并行方式对所述近端内存设备提供的内存资源进行访问。
10.根据权利要求9所述的服务器存储扩展方法,其特征在于,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享,包括:
各个所述目标服务器通过所述互联网络按照串行方式对所述远端内存设备提供的内存资源进行访问。
11.根据权利要求1至10任一项所述的服务器存储扩展方法,其特征在于,还包括:
将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,得到相应的整机柜系统。
12.根据权利要求11所述的服务器存储扩展方法,其特征在于,所述将各个所述目标服务器及所述远端内存设备部署在一个整机柜中,包括:
根据应用场景确定出所述目标服务器与所述远端内存设备的数量关系;
按照所述数量关系在整机柜中部署相应数量的所述目标服务器及所述远端内存设备。
13.根据权利要求12所述的服务器存储扩展方法,其特征在于,所述整机柜系统中还部署有管理设备及供电设备;其中,所述管理设备用于对整机进行管理,所述供电设备用于对整机进行供电。
14.根据权利要求13所述的服务器存储扩展方法,其特征在于,所述管理设备为设置有基板管理控制器和复杂可编程逻辑器件的管理板。
15.根据权利要求14所述的服务器存储扩展方法,其特征在于,所述各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享之前,还包括:
控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
16.根据权利要求15所述的服务器存储扩展方法,其特征在于,所述控制各个所述目标服务器中的处理器通过所述基板管理控制器进行通信,并根据通信结果为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源,包括:
利用所述基板管理控制器对各个所述目标服务器进行扫描,以确定各个所述目标服务器的设备编号及挂载资源,得到所述目标服务器的所需资源信息;
针对设备类型为上行设备的所述目标服务器,确定出该上行设备的下行设备及与各下行设备之间的映射关系,并根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源。
17.根据权利要求16所述的服务器存储扩展方法,其特征在于,所述根据各个所述目标服务器的所需资源信息及述映射关系为各个所述目标服务器中的处理器动态分配所述远端内存设备提供的内存资源之后,还包括:
控制各个所述目标服务器中的处理器与其分配到的内存资源之间的动态映射关系处于激活状态,使得各个所述目标服务器中的处理器通过所述互联网络对其分配到的内存资源进行访问。
18.根据权利要求1所述的服务器存储扩展方法,其特征在于,所述缓存一致性协议为CXL协议,所述远端内存设备为CXL设备。
19.一种整机柜系统,其特征在于,包括部署在一个整机柜中的目标服务器和包含多个内存组件远端的内存设备,其中:
所述远端内存设备位于所述目标服务器的外部,基于池化技术将多个内存组件进行资源集成得到;
各个所述目标服务器与所述远端内存设备之间建立基于缓存一致性协议的互联网络,各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
20.一种服务器存储扩展装置,其特征在于,包括:
资源集成模块,用于基于池化技术将多个内存组件进行资源集成,得到包含多个所述内存组件的远端内存设备;
资源共享模块,用于分别将各个目标服务器与所述远端内存设备建立基于缓存一致性协议的互联网络,使得各个所述目标服务器通过所述互联网络对所述远端内存设备提供的内存资源进行共享。
21.一种电子设备,其特征在于,所述电子设备包括处理器和存储器;其中所述存储器用于存储计算机程序,所述计算机程序由所述处理器加载并执行以实现如权利要求1至18任一项所述的服务器存储扩展方法。
22.一种计算机可读存储介质,其特征在于,用于存储计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现如权利要求1至18任一项所述的服务器存储扩展方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310247201.0A CN115934366A (zh) | 2023-03-15 | 2023-03-15 | 服务器存储扩展方法、装置、设备、介质及整机柜系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310247201.0A CN115934366A (zh) | 2023-03-15 | 2023-03-15 | 服务器存储扩展方法、装置、设备、介质及整机柜系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115934366A true CN115934366A (zh) | 2023-04-07 |
Family
ID=86558030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310247201.0A Pending CN115934366A (zh) | 2023-03-15 | 2023-03-15 | 服务器存储扩展方法、装置、设备、介质及整机柜系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115934366A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116501681A (zh) * | 2023-06-28 | 2023-07-28 | 苏州浪潮智能科技有限公司 | Cxl数据传输板卡及控制数据传输的方法 |
CN116680206A (zh) * | 2023-08-04 | 2023-09-01 | 浪潮电子信息产业股份有限公司 | 内存扩展方法、装置、系统、电子设备及可读存储介质 |
CN116886644A (zh) * | 2023-09-06 | 2023-10-13 | 苏州浪潮智能科技有限公司 | 交换芯片、内存扩展模组和内存扩展系统 |
CN116880773A (zh) * | 2023-09-05 | 2023-10-13 | 苏州浪潮智能科技有限公司 | 一种内存扩展装置及数据处理方法、系统 |
CN117033001A (zh) * | 2023-10-09 | 2023-11-10 | 苏州元脑智能科技有限公司 | 服务器系统、配置方法、cpu、控制模组与存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1263311A (zh) * | 1999-01-27 | 2000-08-16 | 国际商业机器公司 | 混合huma/s-coma系统及方法 |
CN105426319A (zh) * | 2014-08-19 | 2016-03-23 | 超威半导体产品(中国)有限公司 | 动态缓存分区设备和方法 |
CN109032510A (zh) * | 2018-06-29 | 2018-12-18 | 山石网科通信技术有限公司 | 基于分布式结构的处理数据的方法和装置 |
CN110362504A (zh) * | 2018-04-09 | 2019-10-22 | 英特尔公司 | 对一致性链路和多级存储器的管理 |
CN114546654A (zh) * | 2022-02-24 | 2022-05-27 | 浪潮商用机器有限公司 | 一种不同架构之间cpu调用的方法、装置及互联设备 |
CN114675722A (zh) * | 2022-03-25 | 2022-06-28 | 苏州浪潮智能科技有限公司 | 一种内存扩展装置和一种机架 |
CN115757236A (zh) * | 2022-10-24 | 2023-03-07 | 苏州浪潮智能科技有限公司 | 一种存储扩展池化设备及系统 |
-
2023
- 2023-03-15 CN CN202310247201.0A patent/CN115934366A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1263311A (zh) * | 1999-01-27 | 2000-08-16 | 国际商业机器公司 | 混合huma/s-coma系统及方法 |
CN105426319A (zh) * | 2014-08-19 | 2016-03-23 | 超威半导体产品(中国)有限公司 | 动态缓存分区设备和方法 |
CN110362504A (zh) * | 2018-04-09 | 2019-10-22 | 英特尔公司 | 对一致性链路和多级存储器的管理 |
CN109032510A (zh) * | 2018-06-29 | 2018-12-18 | 山石网科通信技术有限公司 | 基于分布式结构的处理数据的方法和装置 |
CN114546654A (zh) * | 2022-02-24 | 2022-05-27 | 浪潮商用机器有限公司 | 一种不同架构之间cpu调用的方法、装置及互联设备 |
CN114675722A (zh) * | 2022-03-25 | 2022-06-28 | 苏州浪潮智能科技有限公司 | 一种内存扩展装置和一种机架 |
CN115757236A (zh) * | 2022-10-24 | 2023-03-07 | 苏州浪潮智能科技有限公司 | 一种存储扩展池化设备及系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116501681A (zh) * | 2023-06-28 | 2023-07-28 | 苏州浪潮智能科技有限公司 | Cxl数据传输板卡及控制数据传输的方法 |
CN116501681B (zh) * | 2023-06-28 | 2023-09-29 | 苏州浪潮智能科技有限公司 | Cxl数据传输板卡及控制数据传输的方法 |
CN116680206A (zh) * | 2023-08-04 | 2023-09-01 | 浪潮电子信息产业股份有限公司 | 内存扩展方法、装置、系统、电子设备及可读存储介质 |
CN116680206B (zh) * | 2023-08-04 | 2024-01-12 | 浪潮电子信息产业股份有限公司 | 内存扩展方法、装置、系统、电子设备及可读存储介质 |
CN116880773A (zh) * | 2023-09-05 | 2023-10-13 | 苏州浪潮智能科技有限公司 | 一种内存扩展装置及数据处理方法、系统 |
CN116880773B (zh) * | 2023-09-05 | 2023-11-17 | 苏州浪潮智能科技有限公司 | 一种内存扩展装置及数据处理方法、系统 |
CN116886644A (zh) * | 2023-09-06 | 2023-10-13 | 苏州浪潮智能科技有限公司 | 交换芯片、内存扩展模组和内存扩展系统 |
CN116886644B (zh) * | 2023-09-06 | 2024-01-26 | 苏州浪潮智能科技有限公司 | 交换芯片、内存扩展模组和内存扩展系统 |
CN117033001A (zh) * | 2023-10-09 | 2023-11-10 | 苏州元脑智能科技有限公司 | 服务器系统、配置方法、cpu、控制模组与存储介质 |
CN117033001B (zh) * | 2023-10-09 | 2024-02-20 | 苏州元脑智能科技有限公司 | 服务器系统、配置方法、cpu、控制模组与存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11841814B2 (en) | System with cache-coherent memory and server-linking switch | |
CN115934366A (zh) | 服务器存储扩展方法、装置、设备、介质及整机柜系统 | |
EP3916566B1 (en) | System and method for managing memory resources | |
KR102074468B1 (ko) | 계산 작업을 처리하기 위한 컴퓨터 클러스터 장치 및 이를 작동시키기 위한 방법 | |
KR20120068464A (ko) | 통합 메모리 서비스를 위한 소프트웨어 구조 및 이 소프트웨어 구조를 이용한 통합 메모리 서비스 제공 방법 | |
JP2001051959A (ja) | 少なくとも1つのnuma(non−uniformmemoryaccess)データ処理システムとして構成可能な相互接続された処理ノード | |
CN105159617A (zh) | 一种池化存储系统架构 | |
US11157191B2 (en) | Intra-device notational data movement system | |
Al Maruf et al. | Memory disaggregation: advances and open challenges | |
Li et al. | Disaggregated Architecture for at Scale Computing. | |
Theodoropoulos et al. | REMAP: Remote mEmory manager for disaggregated platforms | |
US11281612B2 (en) | Switch-based inter-device notational data movement system | |
Al Maruf et al. | Memory Disaggregation: Open Challenges in the Era of CXL | |
US20240126469A1 (en) | Apparatus and method for controlling a pooled memory device or a memory expander | |
Ewais et al. | DDC: A Vision for a Disaggregated Datacenter | |
CN114860431A (zh) | 一种内存访问方法、装置、设备及介质 | |
CN116302554A (zh) | 一种资源管理方法、系统、设备及计算机可读存储介质 | |
TW202416145A (zh) | 用於控制池化記憶體裝置或記憶體擴展器的設備和方法 | |
WO2023172319A1 (en) | Direct swap caching with noisy neighbor mitigation and dynamic address range assignment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230407 |