CN115407839A - 服务器结构及服务器集群架构 - Google Patents
服务器结构及服务器集群架构 Download PDFInfo
- Publication number
- CN115407839A CN115407839A CN202211027056.7A CN202211027056A CN115407839A CN 115407839 A CN115407839 A CN 115407839A CN 202211027056 A CN202211027056 A CN 202211027056A CN 115407839 A CN115407839 A CN 115407839A
- Authority
- CN
- China
- Prior art keywords
- memory
- server
- memory component
- interface
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/18—Packaging or power distribution
- G06F1/183—Internal mounting support structures, e.g. for printed circuit boards, internal connecting means
- G06F1/184—Mounting of motherboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/18—Packaging or power distribution
- G06F1/183—Internal mounting support structures, e.g. for printed circuit boards, internal connecting means
- G06F1/185—Mounting of expansion boards
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Power Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开实施例公开了服务器结构和服务器集群。该服务器结构包括:中央处理器、主板、第一内存部件和第二内存部件,其中,所述第一内存部件通过第一接口与所述主板连接,所述第二内存部件通过第二接口与所述主板连接;所述第一内存部件和所述第二内存部件设置在所述主板的不同区域;其中,所述第一接口和第二接口为支持不同通信协议的通信接口。该服务器节约了增加内存所需要的主板的尺寸,便于减小服务器的横向尺寸,使得数据中心空间不变的前提下可以增加较多的服务器。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种服务器结构及服务器集群架构。
背景技术
随着互联网技术的发展,人们对互联网信息浏览和云计算的需求也越来越多。互联网提供信息服务和云计算服务的资源来自数据中心。数据中心中可以设置机房,在机房中设置服务器。服务器负责根据接收到的用户请求为用户提供相应的服务。
随着互联网信息浏览和云计算的需求的增多,对上述需求提供服务的数据中心中的服务器的数量也会需要相应增加。
发明内容
提供该公开内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该公开内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开实施例提供了一种服务器结构及服务器集群架构。
第一方面,本公开实施例提供了一种服务器结构,包括:中央处理器、主板、第一内存部件和第二内存部件,其中,所述第一内存部件通过第一接口与所述主板连接,所述第二内存部件通过第二接口与所述主板连接;所述第一内存部件和所述第二内存部件设置在所述主板的不同区域;其中,所述第一接口和第二接口为支持不同通信协议的通信接口。
第二方面,本公开实施例提供了一种服务器集群架构,包括两个以上的使用第一方面所述的服务器结构的服务器,所述服务器包括第一内存部件和第二内存部件,所述服务器集群包括第二交换机;各服务器的第二内存部件分别与第二交换机连接,以使服务器通过所述第二交换机访问各服务器中的第二内存部件。
本公开实施例提供的服务器结构和服务器集群,通过在服务器中设置第二内存部件,第二内存部件通过串行扩展接口与主板连接,第二部件内存部件的存储空间替换部分第一内存部件存储空间,从而减少主板横向尺寸,减少了服务器的横向尺寸,使得数据中心空间不变的前提下可以增加较多的服务器,以向用户提供更多的信息服务和计算服务。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是现有服务器的一种示意性结构图;
图2是本公开提供的服务器结构图;
图3是图2所示的第二内存部件的结构图;
图4是本公开提供的一种服务器集群的结构示意图;
图5是服务器集群与内存节点服务器之间的连接关系示意图;
图6是图5所示的内存节点服务器的一种示意性结构图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
为了向用户提供信息服务和云计算服务,数据中心中可设置多台服务器。服务器可以完成数据计算和数据存取的功能。随着云计算需求和互联网信息服务的需求越来越多,数据中心中的服务器的数量也越来越多。
服务器搭配主流的处理器时,常见的内存配置是每个内存通道配两个双列直插内存模块(dual in-line memory modules,DIMMs),即2DIMMs per channel(2DPC)。每个双列直插内存模块可以与一条内存条连接。当每个处理器内存通道从6个增加到8个时,处理器两边的内存条从12条增加到16条。这会带来两个问题:第一是主板面积横向增加。在机柜横向尺寸不变的情况下,主板面积横向增加会导致每层上架的服务器数量减少,即整机柜上架密度、计算密度变低,且易造成网络交换机端口的浪费。不仅如此,在分布式计算架构下,上架密度变低会导致计算节点间的南北向网络流量代替了东西向流量,从而带来系统整体性能下降。内存条数量增加带来的第二个问题是,远离处理器的内存条的信号完整性(signal integrity)成为挑战。请参考图1,其示出了数据中心机房中的相关服务器的一种内部结构。如图1所示,服务器包括主板10、电源、中央处理器(CPU)、内存条101、支持CXL(Compute Express Link)协议的周边元件快速连接(Peripheral ComponentInterconnect express,PCIe)接口、平台控制中心(Platform Controller Hub,PCH)、基板管理控制器(Baseboard Manager Controller,BMC)等。CPU、内存条、PCIe接口、PCH和BMC等通过各自的接口设置在主板上。其中,多个内存条101对称的设置在CPU的两侧。
为了解决上述问题,本公开提供了如下方案。
请参考图2,图2示出了本公开提供的服务器的一个示意性结构图。如图2所示,服务器包括中央处理器(CPU)和主板20、第一内存部件201和第二内存部件。主板可以和CPU连接。主板20上包括不同类型的接口,用于与不同的部件进行连接。主板20上还包括电源,用于供给主板及主板上的各电子元件电源信号。
所述中央处理器通过CPU接口与主板连接。
第一内存部件201通过设置在主板上的第一接口与主板连接。第二内存部件通过设置在主板上的第二接口与主板连接。第一接口和第二接口可以设置在主板的不同区域。作为示意性说明,第一接口可以设置在主板上设置处理器的位置附近。第二接口可以设置在主板的任意一侧。
第一接口和第二接口为支持不同通信协议的通信接口。在一些应用场景中,第一接口可以为支持并行通信协议的通信接口,第二接口可以为支持串行通信协议的通信接口。第一接口例如可以为支持并行通信协议的DIMM接口。第一内存部件201通过第一接口进行多位数据的并行传输。多位数据同时并行传输使得第一内存部件201与数据交换对象之间的数据传输的速率较快、效率高。但是并行传输的抗干扰能力较差,因此通常使用支持并行通信协议的接口传输数据的存储部件通常设置在中央处理器的附近。
第二接口为支持串行通信协议的通信接口。第二内存部件可以通过第二接口将多位数据进行串行传输。具体地,多位数据通过单一的传输线逐一进行传输。串行传输与数据交换对象之间的数据传输的速率较慢,效率较低。串行传输的抗干扰能力较好,可以用于稍远距离的传输。
通过在主板中设置支持不同通信协议的第一接口和第二接口,使得第一内存部件201和第二内存部件可以设置在主板的不同区域,而不会对中央处理器与内存部件之间的信息传输产生不良影响。有助于减小主板的尺寸,从而使得需要较大内存的服务器保持较小的体积。
第一内存部件201可以是各种类型的内存条,例如双倍速率的SDRAM(Double DataRate SDRAM,DDR)。第一接口可以为各种类型的接口,例如SIMM(Single Inline MemoryModule,单列直插内存模块)、DIMM Dual-Inline-Memory-Modules,即双列直插式存储模块、RIMM(Rambus Inline Memory Module)。
第二接口可以为支持预设串行通信协议的扩展接口,所述预设串行通信协议为缓存一致性协议;所述中央处理器与所述第二内存部件之间通过预设缓存一致性协议进行通信。
第二接口例如可以是PCIe接口。这里的缓存一致性协议例如可以是CXL协议。第二内存部件可以通过上述第二接口与主板连接。通过CXL协议,支持第二内存部件各部分的存储空间地址不变。PCIe接口是串行接口。PCIe接口可以设置的位置可以与CPU的距离稍远。
在一些应用场景中,至少一个所述第一内存部件沿第一方向设置在所述中央处理器的两侧;所述第二内存部件与所述中央处理器之间的距离大于所述第一内存部件与所述中央处理器之间的距离;所述第二内存部件设置在所述中央处理器的沿第二方向的两侧中的至少一侧;所述第一方向和所述第二方向互相垂直。
设置在CPU两侧的第一内存部件通过第一接口与CPU之间进行并行数据传输。为CPU提供数据暂时存储功能,在需要时高效率的为CPU提供其存储的数据。此外,第二内存部件也可以通过第二接口为CPU提供其存储的数据,并接受CPU发送的临时存储数据。这样,服务器主板上,为CPU提供数据暂时存储功能的内存不只包括CPU两侧的第一内存部件,还包括第二内存部件。第二内存部件也可以为CPU提供数据暂时存储功能。为了减少主板的尺寸,以减少服务器所占的体积,可以减少设置在CPU两侧的第一内存部件的数量。将第二内存部件设置在CPU的沿第二方向的两侧中的至少一侧。
服务器的主板上可以设置CPU设置区域,CPU设置区域中可以设置多个CPU。每个CPU的两侧可以设置少量的第一内存部件。在CPU设置区域的沿第二方向的两侧中的至少一侧,可以设置第二内存部件。
通过在CPU沿第一方向的两侧设置较少的第一内存部件,在CPU沿第二方向的两侧中的至少一侧设置第二内存部件。也即,通过改变服务器的内存架构来解决服务器横向尺寸较大的问题。例如从2DPC改为1DPC,对于8个内存通道的处理器来讲,处理器两边的第一内存部件(例如内存条)数量从16条降到8条。因此而减少的内存容量,可以通过处理器的一致性内存接口,如Compute Express Link(CXL),连接到服务器机箱内部的第二内存部件上,来补充内存容量。第二内存部件的内存地址,以一个独立的节点的形式映射到每台服务器操作系统。上层软件可以通过对新出现的节点做适配,来利用扩展的内存容量。
这样一来,通过减少主板横向尺寸,实现了服务器横向尺寸的减少,从而可以实现高密度机房的部署。
请参考图3,图3示出了图2所示的第二内存部件的一个示意性结构图。
如图3所示,第二内存部件30包括内存扩展卡。内存扩展卡上可以设置系统级芯片(System on Chip,SoC)301和数据存储单元302。数据存储单元302可以包括多个随机存储器和/或多个非易失性存储器。随机存储器的数量和非易失性存储器可以根据内存扩展卡的大小和需求进行设置。随机存储器和非易失性存储器中可以存储数据。
SoC可以接收数据存取指令,SoC根据上述数据存取指令从随机存储器或者非易失性存储器中取出数据,或者向随机存储器或者非易失性存储器中存储数据。SoC可以包括在线加速引擎(Inline Acceleration IP,Inline Acc IP)、内存控制器(MemoryController,MC)、纠错逻辑模块(chipkill logic)、近内存计算模块(Near MemoryCompute Logic)、第三接口、第四接口。其中,第三接口可以是以太网接口,SoC可以具有可以接入标准的以太网网络的接口。第三接口例如可以是CXLoETH接口,也即CXL overEthernet接口。通过CXL over Ethernet接口,CXL接口协议可以加载在以太网协议之上。第四接口可以是支持缓存一致性协议的接口。第四接口例如可以是CXL(Compute ExpressLink)接口。第四接口可以与设置在主板上的PCIe接口连接。其中,PCIe接口支持CXL协议。第三接口可以与设置在服务器外部的第二交换机连接。第二交换机可以是内存网络交换机。这里的CXL协议支持缓存一致性。
第二内存部件的系统级芯片中设置了数据预处理单元。所述数据预处理单元用于对第二内存部件所存储的数据在发送给所述中央处理器之前进行预处理。具体地,第一数据预处理单元和第二数据预处理单元。第一数据预处理单元可以为在线加速引擎。第二数据预处理单元可以为近内存计算模块。第一数据预处理单元可以实现加密/解密、压缩/解压缩、循环冗余校验等操作。第二数据预处理单元可以实现如对第二内存部件中的存储数据的加权平均等,逻辑简单、重复频率高的操作。
这样一来,可以由上述第二内存部件的第一数据预处理单元和第二数据预处理单元实现部分数据预处理。再将经过预处理后的数据发送给CPU,由CPU再次进行复杂的数据计算。上述第二内存部件可以节约CPU的计算资源。
此外,由于第一内存部件设置在CPU两侧,且通过接口接口与CPU之间进行数据交互。第二内存部件与CPU的距离较远,且第二内存部件与CPU是通过支持缓存一致性串行通信协议的第二接口连接,第二内存部件与CPU之间的数据交互有时延。为了减少上述时延,可以将访问次数较多的数据存入第一内存部件,将访问次数少的数据存入第二内存部件。
在一些应用场景中,使用所述服务器结构的服务器运行的操作系统将第一内存部件的存储空间和第二内存部件的存储空间进行分页管理,将第一内存部件的存储空间映射至至少一个第一内存页;将第二内存部件的存储空间映射至至少一个第二内存页;若一第二内存页的访问次数满足预设条件,该第二内存页转为第一内存页,与第一内存部件的存储空间进行映射。
进一步地,所述第一内存页的访问优先级大于所述第二内存页的访问优先级。
实践中,在操作系统(Operation System,OS)层面加入冷热内存的打标和换页机制,实现内存分层的架构,隐藏第一内存部件和第二内存部件的访问时延差异。因为第二内存部件的地址已经映射到系统内。操作系统可以遍历第一内存部件和第二内存部件对应的内存页的访问状态。内存页的访问状态可以由访问状态位来标识。若一个内存页被访问过,可以更新该内存页的访问状态位的标识,并在预设访问次数统计列表中该内存页对应的访问次数的计数加一。可以根据预设时间内的访问次数来确定内存页是第一内存页(热内存页)或者是第二内存页(冷内存页)。在预设段时间内访问次数大于预设阈值的内存页可以为热内存页,在预设时间段内访问次数小于预设阈值的内存页可以为冷内存页。通过预设的冷热内存页确定机制,将被认定的冷内存页置换到第二内存部件中的一致性扩展内存空间,并将热内存页映射到第一内存部件中。
中央处理器根据优先级的大小优先从第一内存页映射的存储空间中查找待处理数据,若第一内存页中不存在所需的待处理数据,访问第二内存页映射的第二内存部件的存储空间。将访问次数较高的数据存储在第一内存页映射至的第一内存部件的存储空间中,有利于由第一内存部件快速获取待处理数据。将访问次数较小的数据存储在第二存储页映射至的第二内存部件中进行缓存,以备在需要时将该数据发送给中央处理器。
在这些可选的的实现方式中,通过冷热内存页管理机制,根据访问次数将内存页在第一内存页和第二内存页之间切换,有助于中央处理器快速获取访问次数较高的数据。
请参考图4,图4示出了一种服务器集群的结构示意图。
服务器集群可以包括多台服务器。每一台服务器的架构可以如图2所示。服务器集群中多个服务器之间可以进行通信。
图4中以3台服务器401、402、403为例做示意性说明。服务器401、402、403的结构可以包括第一网卡、CPU、设置在CPU两侧的第一内存部件(随机存储内存)第二内存部件。第二内存部件包括系统级芯片、以及与系统级芯片连接的随机存储器和非易失性存储器。
服务器401、402和403的第一网卡分别与第一交换机连接。这里的第一交换机可以是以太网交换机。通过以太网交换机可以实现服务器401、402和403之间的信息交互。
服务器401中的第二内存部件、服务器402中的第二内存部件。各服务器403中的第二内存部件分别与内存网络交换机连接,内存网络交换机可以例如是图4中所示的第二交换机。内存网络交换机设置在服务器之外。通过内存网络交换机,服务器401可以访问服务器402和服务器403上的第二内存部件;服务器402可以访问服务器401和服务器403上的第二内存部件。服务器403可以访问服务器401和服务器402上的第二内存部件。也就是说,通过使用内存网络交换机将服务器401中的第二内存部件、服务器402中的第二内存部件和服务器403中的第二内存部件连接,使得任何一台服务器除了可以访问自身的第二内存部件之外,还可以访问其他服务器中的第二内存部件,也即每一服务器通过所述第二交换机访问各服务器中的第二内存部件。
通过将各台服务器上的第二内存部件通过网络进行连接,使得每一台服务器可以访问的第二内存部件的存储空间的大小为各台服务器分别对应的第二内存部件的空间大小的和。可以进一步增加服务器可以使用的内存空间。
请继续参考图5,图5示出了服务器集群与内存节点服务器之间的连接关系示意图。
服务器集群可以包括多台服务器。例如包括3台服务器501、502、503为例做示意性说明。服务器501、502、503的结构可以包括第一网卡、CPU、设置在CPU两侧的第一内存部件、第二内存部件。第二内存部件包括系统机芯片、以及与系统机芯片连接的随机存储器和非易失性存储器。
服务器501、502和503的第一网卡分别与第一交换机连接。这里的第一交换机可以是以太网交换机。通过以太网交换机可以实现服务器501、502和503之间的信息交互。服务器的第二内存部件与第二交换机连接。每一台服务器均可以通过第二交换机访问其他服务器内部的第二内存部件。
为了进一步提高服务器可以使用的内存空间,可以在服务器之外设置内存节点服务器。内存节点服务器504中可以包括多个存储单元。内存节点服务器中的存储单元例如包括动态随机存储器和各种非易失存储器。内存节点服务器504与服务器集群之间通过第二交换机进行信息交互。内存节点服务器504中的各动态随机存储器和非遗失存储器可以对应相应的存储地址空间。作为示意性说明,服务器集群可以向第二交换机发送数据存储指令。数据存储指令包括待存储的数据。在一些应用场景中,上述数据存储指令还包括存储地址。上述第二交换机可以将上述数据存储指令发送给内存服务器。内存服务器根据上述存储地址存储上述待存储的数据。
内存节点服务器504的结构请参考图6。如图6所示,内存节点服务器包括系统级芯片SOC601和存储单元602。系统级芯片SOC包括内存控制器、纠错模块、在线加速引擎、近内存计算模块、第一接口和第二接口。存储单元602包括各种随机存储器和各种非易失性存储器。内存控制器可以控制对应的随机存储器和非易失性存储器。非易失性存储器例如可以是AEP(Apache Pass)内存。AEP内存是3DXPoint技术的非易失内存。
内存节点服务器中的随机存储器和非易失性存储器可以对应相应的存储地址。服务器集群中的各服务器可以通过第二交换机与内存节点服务器之间进行数据交互。
进一步地,数据中心可以设置多个内存节点服务器,每一个内存节点服务器都可以通过网络与第二交换机连接。
这样一来,每一个服务器都可以通过第二交换机与多个内存节点服务器进行数据交互。
通过在数据中心设置至少一个内存节点服务器的方式,可以进一步在减小服务器横向尺寸的前提下,提高服务器可以使用的内存空间。从而有利于增加数据中心可容纳的服务器的数量。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (11)
1.一种服务器结构,其特征在于,包括:中央处理器、主板、第一内存部件和第二内存部件,其中,所述第一内存部件通过第一接口与所述主板连接,所述第二内存部件通过第二接口与所述主板连接;
所述第一内存部件和所述第二内存部件设置在所述主板的不同区域;
其中,所述第一接口和第二接口为支持不同通信协议的通信接口。
2.根据权利要求1所述的服务器结构,其特征在于,
至少一个所述第一内存部件沿第一方向设置在所述中央处理器的两侧;
所述第二内存部件与所述中央处理器之间的距离大于所述第一内存部件与所述中央处理器之间的距离;所述第二内存部件设置在所述中央处理器的沿第二方向的两侧中的至少一侧;
所述第一方向和所述第二方向互相垂直。
3.根据权利要求2所述的服务器结构,其特征在于,所述第一接口为支持并行通信协议的通信接口;
所述第二接口为支持预设串行通信协议的扩展接口,所述预设串行通信协议为缓存一致性协议;所述中央处理器与所述第二内存部件之间通过预设缓存一致性协议进行通信。
4.根据权利要求2所述的服务器结构,其特征在于,所述第一内存部件为内存条。
5.根据权利要求2所述的服务器结构,其特征在于,所述第二内存部件包括系统级芯片、随机存储器和/或非易失性存储器。
6.根据权利要求5所述的服务器结构,其特征在于,所述系统级芯片包括数据预处理单元,所述数据预处理单元用于对第二内存部件所存储的数据在发送给所述中央处理器之前进行预处理。
7.根据权利要求1所述的服务器结构,其特征在于,使用所述服务器结构的服务器运行的操作系统将第一内存部件的存储空间和第二内存部件的存储空间进行分页,将第一内存部件的存储空间映射至至少一个第一内存页;将第二内存部件的存储空间映射至少一个第二内存页;
若一第二内存页的访问次数满足预设条件,该第二内存页转为第一内存页,与第一内存部件的存储空间进行映射。
8.根据权利要求7所述的服务器结构,其特征在于,所述第一内存页的访问优先级大于所述第二内存页的访问优先级。
9.一种服务器集群架构,其特征在于,包括两个以上的使用权利要求1-8之一所述的服务器结构的服务器,所述服务器包括第一内存部件和第二内存部件,所述服务器集群包括第二交换机;
各服务器的第二内存部件分别与第二交换机连接,以使服务器通过所述第二交换机访问各服务器中的第二内存部件。
10.根据权利要求9所述的服务器集群架构,其特征在于,还包括至少一个内存节点服务器,其中
所述内存节点服务器与所述第二交换机连接,所述服务器集群中的每个服务器通过第二交换机与所述内存节点服务器连接。
11.根据权利要求10所述的服务器集群架构,其特征在于,所述内存节点服务器包括多个存储单元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211027056.7A CN115407839A (zh) | 2022-08-25 | 2022-08-25 | 服务器结构及服务器集群架构 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211027056.7A CN115407839A (zh) | 2022-08-25 | 2022-08-25 | 服务器结构及服务器集群架构 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115407839A true CN115407839A (zh) | 2022-11-29 |
Family
ID=84160517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211027056.7A Pending CN115407839A (zh) | 2022-08-25 | 2022-08-25 | 服务器结构及服务器集群架构 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115407839A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116466879A (zh) * | 2023-03-17 | 2023-07-21 | 北京超弦存储器研究院 | 一种cxl内存模组、内存数据的置换方法及计算机系统 |
-
2022
- 2022-08-25 CN CN202211027056.7A patent/CN115407839A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116466879A (zh) * | 2023-03-17 | 2023-07-21 | 北京超弦存储器研究院 | 一种cxl内存模组、内存数据的置换方法及计算机系统 |
CN116466879B (zh) * | 2023-03-17 | 2023-12-29 | 北京超弦存储器研究院 | 一种cxl内存模组、内存数据的置换方法及计算机系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6088770A (en) | Shared memory multiprocessor performing cache coherency | |
US8250254B2 (en) | Offloading input/output (I/O) virtualization operations to a processor | |
CN100489814C (zh) | 一种共享缓存系统及实现方法 | |
US20150261698A1 (en) | Memory system, memory module, memory module access method, and computer system | |
CN113746762A (zh) | 具有高速缓存相干存储器和服务器链接交换机的系统 | |
KR20040080431A (ko) | 원격 직접 메모리 액세스 프로토콜을 갖는 통신링크의통합을 위한 방법 및 장치 | |
JP6514329B2 (ja) | メモリアクセス方法、スイッチ、およびマルチプロセッサシステム | |
CN111143244B (zh) | 计算机设备的内存访问方法和计算机设备 | |
US20080109624A1 (en) | Multiprocessor system with private memory sections | |
US11947472B2 (en) | Composable infrastructure enabled by heterogeneous architecture, delivered by CXL based cached switch SoC | |
CN115586964A (zh) | 资源共享装置、资源管理装置及资源管理方法 | |
CN107368435B (zh) | 一种精简目录及利用该精简目录实现Cache一致性监听的方法 | |
CN115407839A (zh) | 服务器结构及服务器集群架构 | |
US11847049B2 (en) | Processing system that increases the memory capacity of a GPGPU | |
US20230195368A1 (en) | Write Request Buffer | |
US6775742B2 (en) | Memory device storing data and directory information thereon, and method for providing the directory information and the data in the memory device | |
US20240095179A1 (en) | Data processing system and memory management method of data processing system | |
US11841793B2 (en) | Switch-based free memory tracking in data center environments | |
JP4658064B2 (ja) | 相互接続ネットワークでの効率的な順序保存用の方法及び装置 | |
US11874783B2 (en) | Coherent block read fulfillment | |
US7818508B2 (en) | System and method for achieving enhanced memory access capabilities | |
CN117785755B (zh) | Cxl内存模组及资源配置方法、控制芯片、介质和系统 | |
Ramesh et al. | An efficient multi-level cache system for geometrically interconnected many-core chip multiprocessor | |
CN116795742A (zh) | 存储设备、信息存储方法及系统 | |
CN117827706A (zh) | 数据处理方法、数据处理装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |