CN209911891U - 一种ai计算服务器 - Google Patents

一种ai计算服务器 Download PDF

Info

Publication number
CN209911891U
CN209911891U CN201920852787.2U CN201920852787U CN209911891U CN 209911891 U CN209911891 U CN 209911891U CN 201920852787 U CN201920852787 U CN 201920852787U CN 209911891 U CN209911891 U CN 209911891U
Authority
CN
China
Prior art keywords
server
area
heat dissipation
data
board
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201920852787.2U
Other languages
English (en)
Inventor
阮剑
宋粮勇
刘云
刘青青
闫骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yunduo Data Technology Co Ltd
Original Assignee
Shenzhen Yunduo Data Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Yunduo Data Technology Co Ltd filed Critical Shenzhen Yunduo Data Technology Co Ltd
Priority to CN201920852787.2U priority Critical patent/CN209911891U/zh
Application granted granted Critical
Publication of CN209911891U publication Critical patent/CN209911891U/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cooling Or The Like Of Electrical Apparatus (AREA)

Abstract

本实用新型实施例公开了一种AI计算服务器,其包括:机箱,机箱包括依序设置的第一区域、第二区域和第三区域;设置在第一区域的服务器主板;平行服务器主板设置的AI计算板卡,AI计算板卡通过PCIE转接排线和服务器主板电连接;设置在第三区域的硬盘阵列,硬盘阵列通过数据排线和服务器主板电连接;设置在第二区域的第一散热装置,第一散热装置包括间隔第一区域和第三区域的散热器支架,散热器支架包括联通第一区域和第三区域的散热通道,第一散热装置还包括散热风扇,散热风扇固定在散热通道内。实现多个AI计算板卡能够重叠横置于服务器的狭小空间内,且散热通道在机箱内密集板卡之间形成良好的散热通道,保证了机箱的始终处于工作温度内运行的效果。

Description

一种AI计算服务器
技术领域
本实用新型实施例涉及AI计算领域,特别是一种AI计算服务器。
背景技术
随着互联网和信息行业的快速发展,各种声音、图像、视频数据均呈井喷式的发展,大数据处理已经逐步取代传统的人工数据处理,而人工智能(简称AI)技术的应用使得大数据分析处理能力得到再一次飞跃。
深度学习技术引发了人工智能应用的高速发展,引领人类由信息时代进入智能时代。深度学习本质是一种机器学习技术,需要强大的硬件计算能力,来完成复杂的数据处理和运算。对于如此庞大的数据处理和运算,现有的人工智能解决方案中,采用专用的AI计算板卡执行深度学习运算,但是即使单个超高性能的AI计算板卡,其处理能力也远远达不到运算需求。
现有技术AI计算服务器都是大型设备,一般通过数量较多的GPU组成算力阵列,目前还没有适用单机箱的功能强大的AI计算服务器。
实用新型内容
本实用新型提供一种AI计算服务器,以实现多个算力板卡能够重叠横置于服务器的狭小空间内。
本实用新型实施例提出一种AI计算服务器,包括:
机箱,所述机箱包括依序设置的第一区域、第二区域和第三区域;
设置在所述第一区域的服务器主板;
平行所述服务器主板设置的AI计算板卡,所述AI计算板卡通过PCIE转接排线和所述服务器主板电连接;
设置在第三区域的硬盘阵列,所述硬盘阵列通过数据排线和服务器主板电连接;
设置在第二区域的第一散热装置,所述第一散热装置包括间隔第一区域和第三区域的散热器支架,散热器支架包括联通所述第一区域和第三区域的散热通道,所述第一散热装置还包括散热风扇,所述散热风扇固定在所述散热通道内。
进一步地,AI计算服务器还包括设置在第一区域的电源模块,所述电源模块一端固定在机箱的入风口,电源模块另一端的出风口朝向所述第一散热装置。
进一步地,所述AI计算板卡为多个,所述多个AI计算板卡层叠放置,每个AI计算板卡的侧部和服务器侧壁固定。
进一步地,AI计算服务器还包括安装在所述服务器主板的处理器和存储器。
进一步地,AI计算服务器还包括和所述处理器连接的第二散热装置。
进一步地,所述AI计算板卡包括转接板卡和算力板卡,
所述转接板卡包括M.2插座、桥接芯片和PCIE接口,所述桥接芯片包括第一接口和第二接口,所述第一接口连接所述M.2插座;所述第二接口连接所述PCIE接口;
所述算力板卡包括M.2插头和AI芯片,所述AI芯片包括和所述M.2插头连接的数据接口,所述M.2插头和所述M.2插座可拆卸式连接;
其中,所述桥接芯片通过PCIE接口从外部设备获取第一数据并传输至所述AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述桥接芯片将从外部设备获取的第一数据分解为多个第二数据,将所述多个第二数据并行传输至多个AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果。
进一步地,所述算力板卡包括控制芯片,每个算力板卡包括的AI芯片为多个,所述多个AI芯片通过所述控制芯片连接至所述M.2插头。
进一步地,所述算力板卡为多个,所述多个算力板卡并行连接至所述桥接芯片。
进一步地,每个算力板卡包括的AI芯片为多个,所述多个AI芯片并行连接至所述控制芯片。
本实用新型通过AI计算板卡通过PCIE转接排线和所述服务器主板电连接,联通第一区域和第三区域的散热通道,解决服务器硬件资源浪费或系统算力不足和服务器散热不足的问题,实现多个AI计算板卡能够重叠横置于服务器的狭小空间内,且散热通道在机箱内密集板卡之间形成良好的散热通道,保证了机箱的始终处于工作温度内运行的效果。
附图说明
图1是本实用新型实施例一中的一种AI计算服务器的结构示意图。
图2是本实用新型实施例二中的一种AI计算板卡的结构示意图。
图3是本实用新型实施例二中的一种算力板卡的结构示意图。
具体实施方式
下面结合附图和实施例对本实用新型作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本实用新型,而非对本实用新型的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本实用新型相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
此外,术语“第一”、“第二”等可在本文中用于描述各种方向、动作、步骤或元件等,但这些方向、动作、步骤或元件不受这些术语限制。这些术语仅用于将第一个方向、动作、步骤或元件与另一个方向、动作、步骤或元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一速度差值为第二速度差值,且类似地,可将第二速度差值称为第一速度差值。第一速度差值和第二速度差值两者都是速度差值,但其不是同一速度差值。术语“第一”、“第二”等而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实用新型的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
实施例一
图1为本实用新型实施例一提供的一种AI计算服务器的结构示意图,本实施例可适用于多个算力板卡能够装于服务器的狭小空间内情况。
本实施例提供的一种AI计算服务器包括机箱1、服务器主板2、AI计算板卡3、硬盘阵列4和第一散热装置5。
机箱1,所述机箱1包括依序设置的第一区域101、第二区域102和第三区域103。
服务器主板2设置在所述第一区域101。
AI计算板卡3平行所述服务器主板2设置,所述AI计算板卡3通过PCIE转接排线6和所述服务器主板2电连接。
设置在第三区域103的硬盘阵列4,所述硬盘阵列4通过数据排线和服务器主板2电连接。
设置在第二区域102的第一散热装置5,所述第一散热装置5包括间隔第一区域101和第三区域103的散热器支架501,散热器支架501包括联通所述第一区域101和第三区域103的散热通道5011,所述第一散热装置5还包括散热风扇,所述散热风扇固定在所述散热通道5011内。
本实施例,机箱1一般包括外壳、支架、面板上的各种开关、指示灯等。外壳用钢板和塑料结合制成,硬度高,主要起保护机箱1内部元件的作用。支架主要用于固定主板、电源和各种部件,并且将机箱1分隔为第一区域101、第二区域102和第三区域103。
服务器主板2固定在机箱1的第一区域101,AI计算板卡3安装于第一区域101,与服务器主板2平行安装,AI计算板卡3通过PCIE转接排线6和服务器主板2电连接。PCIE转接排线6用于连接服务器主板2的PCIE插槽,接收主机CPU发送的数据,并将服务器主板2的CPU发送的数据发送给AI计算板卡3。同时,PCIE转接排线6还用于向服务器主板2的CPU返回AI计算板卡3的运算结果数据。现有技术中AI计算板卡的PCIE接口用于连接主机的PCIE插槽,接收主机CPU发送的数据,在AI计算板卡运算能力不可调的情况下,如果需要增加GPU运算能力则需要外部连接GPU来增加图像处理能力。而本实施例的PCIE转接排线6可以设置多个PCIE插槽与AI计算板卡3连接,也就是说一个服务器内可以同时使用多个AI计算板卡,极大地提升了AI计算板卡的使用灵活度,降低了硬件成本。
硬盘阵列4设置在机箱1的第三区域103,把相同的数据存储在多个硬盘的不同的地方(因此,冗余地)的方法。通过把数据放在多个硬盘上,输入输出操作能以平衡的方式交叠,改良性能。因为多个硬盘增加了平均故障间隔时间(MTBF),储存冗余数据也增加了容错。硬盘阵列能够提供在线扩容、动态修改阵列级别、自动数据恢复、驱动器漫游、超高速缓冲等功能。它能提供性能、数据保护、可靠性、可用性和可管理性的解决方案。硬盘阵列4通过数据排线和服务器主板2电连接。排线减少了内连所需的硬体,如传统的电子封装上常用的焊点、中继线、底板线路及线缆,使排线可以提供更高的装配可靠性和质量。
运行强度大的服务器所使用的CPU至少为两个或更多,而且加上内部多采用SCSI磁盘阵列的形式,因而使得服务器内部发热量很大,所以良好的散热性是一款优秀服务器机箱的必备条件。散热性能主要表现在三个方面,一是风扇的数量和位置,二是散热通道的合理性,三是机箱材料的选材。本实施例的第一散热装置5设置在第二区域102,包括将机箱1分隔成第一区域101、第二区域102和第三区域103的散热器支架501。散热器支架501通过联通所述第一区域101和第三区域103的散热通道5011隔离硬盘和主板,为硬盘和主板分别设置单独的散热通道5011,通过固定在散热通道5011内部的散热风扇对散热通道5011的风进行出风,进入主板和电源的风不再为热风,这样避免因为热量传递和窜扰导致的散热恶化,并通过各分区独立工作独立散热,来达到各部分最优化散热,实现提升硬盘、主板和电源的散热效果,避免产生宕机现象。
本实用新型实施例通过AI计算板卡3通过PCIE转接排线6和所述服务器主板2电连接,并且设置联通第一区域101和第三区域103的散热通道5011,解决服务器硬件资源浪费或系统算力不足和服务器散热不足的问题,实现多个AI计算板卡3能够重叠横置于服务器的狭小空间内,且散热通道5011在机箱内密集板卡之间形成良好的散热通道,保证了机箱1的始终处于工作温度内运行的效果。
替代实施例中,AI计算服务器还包括设置在第一区域101的电源模块7,所述电源模块7一端固定在机箱1的入风口,电源模块7另一端的出风口朝向所述第一散热装置5。
进一步包括安装在所述服务器主板1的处理器8和存储器9。
本实施例,处理器8可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,处理器8是服务器的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
存储器9可用于存储服务器程序和/或模块,处理器8通过运行或执行存储在存储器9内的服务器程序和/或模块,以及调用存储在存储器9内的数据,实现服务器装置的各种功能。存储器9可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器9可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
进一步包括和所述处理器8连接的第二散热装置。
本实施例,电源模块7设置在第一区域101,电源模块7的进风口位于服务器机箱后端侧壁的下方部位的中心位置。设置在中心位置,这样进风口进的风也处于电源的中心位置,另一端的出风口朝向第一散热装置5,通过第一散热装置5的散热通道5011和内部的散热风扇的通风,能够全达到全面均衡散热的效果,散热效果进一步提升。
第二散热装置还与处理器8连接,能对处理器8进行单独散热,进行效率极高的有效散热,避免产生宕机现象。
实施例二
实施例二在实施例一的基础上,对部分结构做了进一步细化,具体如下:
如图2所示,所述AI计算板卡3为多个,所述多个AI计算板卡3层叠放置,每个AI计算板卡3的侧部和服务器侧壁固定。
所述AI计算板卡3包括转接板卡301和算力板卡302,所述转接板卡301包括M.2插座3011、桥接芯片3012和PCIE接口3013,所述桥接芯片3012包括第一接口和第二接口,所述第一接口连接所述M.2插座3011;所述第二接口连接所述PCIE接口3013。
所述算力板卡302为多个,所述多个算力板卡302并行连接至所述桥接芯片3012。
本实施例,M.2接口,是Intel推出的一种替代MSATA新的接口规范。M.2接口分两种类型,分别支持SATA通道与NVME通道,其中SATA3.0只有6G带宽,而后者是走PCI-E通道,能提供高达32G的带宽,NVME作为新一代存储规范,由于走PCI-E通道带宽充足,可提升空间极大,传输速度更快。因此,本实施例通过桥接芯片3012将PCIE接口3013与M.2插座3011连接起来,提高数据传输速率。
与桥接芯片3012的第二接口相连接的PCIE接口3013接收主机CPU发送的数据,并将CPU发送的数据通过与桥接芯片3012的第二接口相连接的PCIE接口3013和到与桥接芯片3012的第一接口相连接的M.2插座3011,发送到算力板卡302进行数据处理,并接收由算力板卡302返回的处理结果数据。AI计算板卡3的侧部和服务器侧壁固定并层叠放置。
进一步地,算力板卡302为多个,多个算力板卡302并行连接至桥接芯片3012。当安装有多个算力板卡302时,AI计算服务器可以形成关于人工智能计算的资源池。需要说明的是,算力板卡302能够以M.2接口的插拔方式安装在AI计算服务器上。这样,AI计算服务器可以根据需要调节算力板卡302的安装数量。这里,AI计算服务器通过M.2接口的插拔方式安装算力板卡302,能够方便地调节AI计算板卡3的资源池的规模。
进一步地,为提高在一个AI计算服务器内的主板算力,AI计算板卡3可为多个,多个计算板卡层叠放置,每个计算板卡的侧部固定在服务器的侧壁。
实施例二在上述技术方案的基础上进一步完善了AI计算板卡3的功能,由于服务器的CPU通常具备标准PCIE接口,通过转接板卡301将M.2接口转换成PCIE接口,AI计算服务器通过M.2接口的插拔方式安装算力板卡302,能够方便地调节AI计算板卡3的资源池的规模。
实施例三
实施例三在实施例二的基础上,对AI计算板卡3做了进一步细化,具体如下:
如图3所示,所述算力板卡302包括M.2插头3021和AI芯片3022,所述AI芯片3022包括和所述M.2插头3021连接的数据接口,所述M.2插头3021和所述M.2插座3011可拆卸式连接。
其中,所述桥接芯片3012通过PCIE接口3013从外部设备获取第一数据并传输至所述AI芯片3022进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述桥接芯片3012将从外部设备获取的第一数据分解为多个第二数据,将所述多个第二数据并行传输至多个AI芯片3022进行计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果。
所述算力板卡302进一步包括控制芯片3023,每个算力板卡302包括的AI芯片3022为多个,所述多个AI芯片3022通过所述控制芯片3023连接至所述M.2插头3021。
每个算力板卡302包括的AI芯片3022为多个,所述多个AI芯片3022并行连接至所述控制芯片3023。
本实施例,算力板卡302包括多个AI芯片3022,由于AI芯片3022与控制芯片3023之间有大量的数据交换,所以采用特殊的数据接口,本实用新型实施例采用FIP接口,多个AI芯片3022通过控制芯片3023连接至M.2插头3021。多个AI芯片3022通过FIP接口与控制芯片3023并行连接。
与桥接芯片3012的第二接口相连接的PCIE接口3013接收主机CPU发送的数据,并将CPU发送的数据通过与桥接芯片3012的第一接口相连接的M.2插座3011,发送到与M.2插头3021经由数据接口连接的AI芯片3022中,由AI芯片3022处理数据,并按照原本的数据传输路线向CPU返回AI芯片3022的预算结果数据。
桥接芯片3012通过PCIE接口3013从外部设备获取第一数据并通过M.2插座3011传输至所述AI芯片3022进行计算。第一数据为预设事件的特征数据,控制芯片3023取出一个尚未处理的数据列,对之进行特征列检查,识别其中特征数据类型的标记,AI芯片3022根据特征工程知识库找到其对应的特征处理算法,采用对应的算法对该列进行处理。优化AI运算可以是减少调用次数和减少计算数据量,本实用新型实施例还可以是控制芯片3023将一个完整的第一数据拆分成多个第二数据,各第二数据之间有数据依赖关系,且每个第二数据的结果都可以设置保存点,同时,每个第二数据处理都可以单独重启,每个第二数据可以存在同一计算节点上,由AI芯片3022进行处理,尽可能分布式并行计算,提高执行的并发度。在处理完成后,控制芯片3023将多个第二数据的AI判断结果合并成预设事件的AI判断结果。
实施例三在上述技术方案的基础上进一步完善了算力板卡302的功能,AI芯片3022与控制芯片3023之间有大量的数据交换,需要采用特殊的数据接口,通过控制芯片3023将FIP接口转换成M.2接口,实现算力板卡302算力的可调制。
注意,上述仅为本实用新型的较佳实施例及所运用技术原理。本领域技术人员会理解,本实用新型不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本实用新型的保护范围。因此,虽然通过以上实施例对本实用新型进行了较为详细的说明,但是本实用新型不仅仅限于以上实施例,在不脱离本实用新型构思的情况下,还可以包括更多其他等效实施例,而本实用新型的范围由所附的权利要求范围决定。

Claims (9)

1.一种AI计算服务器,其特征在于,包括:
机箱,所述机箱包括依序设置的第一区域、第二区域和第三区域;
设置在所述第一区域的服务器主板;
平行所述服务器主板设置的AI计算板卡,所述AI计算板卡通过PCIE转接排线和所述服务器主板电连接;
设置在第三区域的硬盘阵列,所述硬盘阵列通过数据排线和服务器主板电连接;
设置在第二区域的第一散热装置,所述第一散热装置包括间隔第一区域和第三区域的散热器支架,散热器支架包括联通所述第一区域和第三区域的散热通道,所述第一散热装置还包括散热风扇,所述散热风扇固定在所述散热通道内。
2.根据权利要求1所述的AI计算服务器,其特征在于,还包括设置在第一区域的电源模块,所述电源模块一端固定在机箱的入风口,电源模块另一端的出风口朝向所述第一散热装置。
3.根据权利要求1所述的AI计算服务器,其特征在于,所述AI计算板卡为多个,所述多个AI计算板卡层叠放置,每个AI计算板卡的侧部和服务器侧壁固定。
4.根据权利要求1所述的AI计算服务器,其特征在于,进一步包括安装在所述服务器主板的处理器和存储器。
5.根据权利要求4所述的AI计算服务器,其特征在于,进一步包括和所述处理器连接的第二散热装置。
6.根据权利要求1所述的AI计算服务器,其特征在于,所述AI计算板卡包括转接板卡和算力板卡,
所述转接板卡包括M.2插座、桥接芯片和PCIE接口,所述桥接芯片包括第一接口和第二接口,所述第一接口连接所述M.2插座;所述第二接口连接所述PCIE接口;
所述算力板卡包括M.2插头和AI芯片,所述AI芯片包括和所述M.2插头连接的数据接口,所述M.2插头和所述M.2插座可拆卸式连接;
其中,所述桥接芯片通过PCIE接口从外部设备获取第一数据并传输至所述AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述桥接芯片将从外部设备获取的第一数据分解为多个第二数据,将所述多个第二数据并行传输至多个AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果。
7.根据权利要求6所述的AI计算服务器,其特征在于,所述算力板卡进一步包括控制芯片,每个算力板卡包括的AI芯片为多个,所述多个AI芯片通过所述控制芯片连接至所述M.2插头。
8.根据权利要求7所述的AI计算服务器,其特征在于,所述算力板卡为多个,所述多个算力板卡并行连接至所述桥接芯片。
9.根据权利要求8所述的AI计算服务器,其特征在于,每个算力板卡包括的AI芯片为多个,所述多个AI芯片并行行连接至所述控制芯片。
CN201920852787.2U 2019-06-06 2019-06-06 一种ai计算服务器 Active CN209911891U (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201920852787.2U CN209911891U (zh) 2019-06-06 2019-06-06 一种ai计算服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201920852787.2U CN209911891U (zh) 2019-06-06 2019-06-06 一种ai计算服务器

Publications (1)

Publication Number Publication Date
CN209911891U true CN209911891U (zh) 2020-01-07

Family

ID=69049890

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201920852787.2U Active CN209911891U (zh) 2019-06-06 2019-06-06 一种ai计算服务器

Country Status (1)

Country Link
CN (1) CN209911891U (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069111A (zh) * 2019-06-06 2019-07-30 深圳云朵数据科技有限公司 一种ai计算服务器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110069111A (zh) * 2019-06-06 2019-07-30 深圳云朵数据科技有限公司 一种ai计算服务器

Similar Documents

Publication Publication Date Title
CN110134205B (zh) 一种ai计算服务器
US10091904B2 (en) Storage sled for data center
US10021806B2 (en) System and method for flexible storage and networking provisioning in large scalable processor installations
TWI591485B (zh) 用於減少多節點機箱系統之管理埠之電腦可讀取儲存裝置、系統及方法
CN104202194A (zh) PCIe拓扑的配置方法和装置
CN210534653U (zh) 一种ai计算服务器
US10856441B1 (en) System and method for bi-side heating vapor chamber structure in an information handling system
CN110069111A (zh) 一种ai计算服务器
CN210428286U (zh) 一种模块化边缘服务器结构
CN209911891U (zh) 一种ai计算服务器
TW201222274A (en) Computer chassis system
US11093422B2 (en) Processor/endpoint communication coupling configuration system
CN209879419U (zh) 一种计算板卡
CN209879377U (zh) 一种计算板卡
US11809893B2 (en) Systems and methods for collapsing resources used in cloud deployments
CN216352292U (zh) 服务器主板及服务器
US20220342835A1 (en) Method and apparatus for disaggregation of computing resources
CN113220080B (zh) 一种模块化多计算节点gpu服务器结构
CN214896436U (zh) 一种模块化多计算节点gpu服务器结构
CN115639880A (zh) 服务器
CN103677152A (zh) 存储服务器及其机架系统
CN105824375A (zh) 一种服务器
US20210182110A1 (en) System, board card and electronic device for data accelerated processing
CN110908464B (zh) 模块化计算平台、更换平台部件的方法和优化平台的方法
CN116431559A (zh) 一种服务器管理方法、装置、设备及机器可读存储介质

Legal Events

Date Code Title Description
GR01 Patent grant
GR01 Patent grant