CN209879377U - 一种计算板卡 - Google Patents
一种计算板卡 Download PDFInfo
- Publication number
- CN209879377U CN209879377U CN201920857961.2U CN201920857961U CN209879377U CN 209879377 U CN209879377 U CN 209879377U CN 201920857961 U CN201920857961 U CN 201920857961U CN 209879377 U CN209879377 U CN 209879377U
- Authority
- CN
- China
- Prior art keywords
- data
- interface
- computing
- chip
- pcie
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Power Sources (AREA)
Abstract
本实用新型公开了一种计算板卡,其特征在于,包括多个计算板卡、PCIE插槽和PCIE转接排线;所述多个计算板卡层叠设置于所述计算板卡表面,PCIE转接排线通过PCIE插槽将多个计算板卡固定于计算板卡表面;所述计算板卡包括控制芯片、AI芯片和PCIE接口;所述控制芯片包括第一接口和第二接口;所述AI芯片包括第三接口,所述第三接口通过所述第一接口连接于所述控制芯片;所述PCIE接口一端连接所述第二接口,另一端连接PCIE转接排线。本实用新型通过将多个计算板卡密集设置于服务器主机内,使服务器主机能够根据需要配置计算板卡的数量,提升算力,同时减小空间占用。
Description
技术领域
本实用新型实施例涉及计算机AI运算领域,尤其涉及一种计算板卡。
背景技术
随着互联网和信息行业的快速发展,各种声音、图像、视频数据均呈井喷式的发展,大数据处理已经逐步取代传统的人工数据处理,而人工智能(简称AI)技术的应用使得大数据分析处理能力得到再一次飞跃。
深度学习技术引发了人工智能应用的高速发展,引领人类由信息时代进入智能时代。深度学习本质是一种机器学习技术,需要强大的硬件计算能力,来完成复杂的数据处理和运算。对于如此庞大的数据处理和运算,现有的人工智能解决方案中,采用专用的AI加速处理芯片执行深度学习运算,但是即使单个超高性能的AI加速处理芯片,其处理能力也远远达不到运算需求。
现有技术中AI计算服务器都是大型设备,一般通过数量较多的GPU组成算力阵列,目前还没有根据需要进行算力板卡数量配置的使用单机箱的功能强大的AI计算服务器。
实用新型内容
为解决上述问题,本实用新型提供一种计算板卡,包括多个计算单元,所述计算单元包括:
控制芯片,所述控制芯片包括第一接口和第二接口;
AI芯片,所述AI芯片包括和所述第一接口连接的第三接口;
PCIE接口,所述控制芯片的第二接口通过所述PCIE接口和外部设备连接;
其中,所述控制芯片从外部设备获取第一数据并传输至所述AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述控制芯片将从外部设备获取的第一数据分解为多个第二数据,将所述多个第二数据传输至所述AI芯片进行分别计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果。
进一步的,所述计算板卡不包括存储单元。
进一步的,所述PCIE接口包括供电端,用于为所述控制芯片和AI芯片提供工作电源。
进一步的,所述外部设备为电脑主板或服务器主板。
进一步的,所述AI芯片为多个,所述多个AI芯片并行连接至所述控制芯片。
进一步的,所述第一数据为图像数据,所述第二数据为物体、人脸、指纹中的一种或多种。
进一步的,包括电源电路,用于为所述控制芯片和AI芯片供电。
本实用新型通过在服务器主板内增设多个数量的计算板卡,提高服务器主板计算板卡运算能力,提高运算速度,减小服务器主板计算板卡体积。
附图说明
图1是本实用新型实施例一中的计算板卡的结构示意图。
图2是本实用新型实施例二中的计算板卡在服务器主机中的结构示意图。
具体实施方式
下面结合附图和实施例对本实用新型作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本实用新型,而非对本实用新型的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本实用新型相关的部分而非全部结构。
以下实施例中出现的名词解释如下:
AI芯片:用于执行AI算法的芯片,主要用于图像处理、语音处理、人像识别等领域。
CPU:Central Processing Unit,中央处理器,又称为处理器,包含运算逻辑部件、寄存器部件和控制部件等,并具有处理指令、执行操作、控制时间、处理数据等功能。是电脑主机中的核心部件之一。
GPU:Graphics Processing Unit,图形处理器,又称显示核心、视觉处理器、显示芯片,是一种图像运算工作的微处理器。GPU的作用是将计算机系统所需要的显示信息进行转换驱动,并向显示器提供行扫描信号,控制显示器的正确显示,是连接显示器和个人电脑主板的重要元件,也是“人机对话”的重要设备之一。显卡作为电脑主机里的一个重要组成部分,承担输出显示图形的任务。
FPGA:Field-Programmable Gate Array,现场可编程门阵列,是在可编程器件的基础上进一步发展的产物。它是作为专用集成电路领域中的一种半定制电路而出现的,既解决了定制电路的不足,又克服了原有可编程器件门电路数有限的缺点。
PCIE:Peripheral component interconnect express,一种基于数据包、串行、点到点的高性能互连总线协议。其定义了一种分层的体系结构,包括软件层、处理层、数据链路层和物理层。其中软件层是保持与PCI总线兼容的关键,PCIE采用与PCI和PCI—X相同的使用模型和读写通信模型。支持各种常见事物,如存储器读写事物,I/O读写事物和配置读写事物。而且由于地址空间模型没有变化,所以现有的操作系统和驱动软件无需进行修改即可在PCIE系统上运行。此外PCIE还支持一种称为消息事物的新事物类型。这是由于PCIE协议在取消了许多边带信号的情况下,需要有替代的方法来通知主机系统对设备中断,电源管理,热插拔支持等进行服务。
实施例一
如图1所示,本实施例提供了一种计算板卡100的结构,具体地,每个计算板卡100包括至少一个计算单元101,计算单元101包括:
控制芯片111,控制芯片包括第一接口1111和第二接口1112;
AI芯片121,AI芯片121包括和第一接口1111连接的第三接口1221;
PCIE接口131,控制芯片111的第二接口1112通过PCIE接口131和外部设备连接;
计算板卡100也被称为AI加速器或计算卡,用于计算输入的数据,执行AI运算加速处理,是专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由处理器负责)。
本实施例的控制芯片111可以是用于人工智能计算的现场可编程门阵列(FieldProgrammable Gate Array,缩写为FPGA)芯片、用于人工智能计算的专用集成电路(Application Specific Integrated Circuit,缩写为ASIC)芯片或者图形处理器(Graphics Processing Unit,缩写为GPU)芯片等等,本实施例采用FPGA控制芯片。
AI芯片121与控制芯片111可以以各种可能的方式互联,可选地,本实施例中多个AI芯片121并行连接至控制芯片111。
可选地,AI芯片121为多个,并行连接至控制芯片111,能够同时进行多段数据的处理,提升数据处理速度。
第三接口1221通过第一接口1111连接于控制芯片111。具体地,在本实施例中,第三接口1221为设置于每个AI芯片121一端的导电触片式接口,用于与第一接口1111耦接。在本实施例中,AI芯片121优选为2801型号的神经网络处理器。第一接口1111用于在AI芯片121与控制芯片111之间传输大量数据,由于AI芯片121与控制芯片111之间有大量的数据交换,所以第一接口1111采用特殊的数据接口,本实施例优选为FIP数据接口。
PCIE接口131采用了目前业内流行的点对点串行连接,比起PCI以及更早期的计算机总线的共享并行架构,每个设备都有自己的专用连接,不需要向整个总线请求带宽,而且可以把数据传输率提高到一个很高的频率,达到PCI所不能提供的高带宽。相对于传统PCI总线在单一时间周期内只能实现单向传输,PCI-E的双单工连接能提供更高的传输速率和质量,它们之间的差异跟半双工和全双工类似。由于使用AI芯片121进行运算对数据接口的要求较高,因此本实用新型采用PCIE接口,能够使接口负担大量图像处理数据的实时传输需求,保证服务器主机正常运作。PCIE接口131可以为PCIEx4、PCIEx8或PCIE x16接口,本实施例优选为PCIEx16接口。
可选地,PCIE接口131还包括供电端1311,供电端1311用于为控制芯片111和AI芯片121提供工作电源。
可选地,计算板卡100还可以包括电源管理芯片141,电源管理芯片141用于对控制芯片111和多个AI芯片121进行电能的变换、分配及管理。电源管理芯片(Power ManagementIntegrated Circuits)是在电子设备系统中担负起对电能的变换、分配、检测及其他电能管理的职责的芯片,主要负责识别处理器供电幅值,产生相应的短矩波,推动后级电路进行功率输出,其性能的优劣对服务器主机的性能有直接影响。常用电源管理芯片有HIP6301、IS6537、RT9237、ADP3168、KA7500、TL494、SLG46722CPLD等,本实施例中,电源管理芯片141的型号优选为SLG46722CPLD。
本实施例通过在一个计算板卡上集成多个AI芯片,提高了每一个计算板卡的算力;通过增加电源管理芯片和供电端,保证了计算板卡在进行数据处理时能够合理配置电能。
实施例二
本实用新型实施例二在上述实施例一的基础上,对计算板卡100在服务器主机200中的结构做了进一步细化,具体如图2所示,多个计算板卡100包括PCIE转接排线102、固定插板103和散热装置104。
服务器主机200包括PCIE插槽201、服务器主板202、电源203、存储器204、处理器205、磁盘阵列206、固定卡座207,PCIE插槽201设置于服务器主板202表面,电源203与服务器主板202电连接,存储器204和处理器205设置于服务器主板202表面,磁盘阵列206与存储器204和处理器205电连接,固定卡座207设置于服务器主机200的侧壁。
计算板卡100为多个,层叠设置于服务器主机200中。
PCIE转接排线102通过PCIE插槽201将多个计算板卡100与服务器主板202电连接。PCIE转接排线102一端连接计算板卡100,另一端插入PCIE插槽201,使计算板卡100能够与服务器主机200电连接。
计算板卡100靠近服务器主机200侧壁的一端还包括层叠设置的固定插板103,固定插板103位于计算板卡100靠近服务器主机200侧壁的一端,能够与固定卡座207连接,用于将计算板卡100通过机械结构固定在服务器主机200侧面,防止计算板卡100在服务器主机200内移动或损坏元器件。同时由于服务器主机200内部比较狭小,将计算板卡100层叠设置能够减少在服务器主机200内的空间占用,通过固定插板103可以根据需要在服务器主机200内配置多个计算板卡100,增强算力。
散热装置104为固定覆盖在计算板卡100表面的散热盖,用于促进计算板卡100的散热,同时保护计算板卡100表面的元器件。由于计算板卡100在执行计算任务时会产生热量,有可能超出警戒温度,导致元器件电路运行不稳,使用寿命缩短,甚至损坏计算板卡100上的元器件,因此需要使用散热装置吸收热量,保证各部件的温度正常。散热装置104可以是散热风扇和/或水冷散热器,散热风扇通过加快空气对流加快散热;水冷散热器使用液体在泵的带动下强制循环带走散热器的热量,具有降温稳定、对环境依赖小等优点。水冷散热器由于热容量大,热波动相对小,稳定性更好。因此在本实施例中,散热装置104优选为覆盖在计算板卡上的水冷散热器。同时,在计算板卡100表面加装散热盖,能够起到隔离灰尘的作用,防止灰尘落入计算板卡100表面造成短路等问题,保持计算板卡100的正常工作状态。
PCIE插槽201用于固定PCIE转接排线102,PCIE插槽201具体为具有多个插槽的阵列,每个PCIE插槽201均可通过插接PCIE转接排线102固定安装一个计算板卡100。当安装有多个计算板卡100时,服务器可以形成关于AI计算的资源池。需要说明的是,通过PCIE插槽201,计算板卡100能够以热插拔方式安装在服务器主板202上,可以根据需要调节计算板卡100的安装数量,使服务器主机200能够方便地调节AI计算的资源池的规模,根据需要进行计算板卡100的数量配置,提升服务器主机算力。
电源203分别与计算板卡100、服务器主板202、存储器204和处理器205、磁盘阵列206电连接,用于为上述元器件供电。电源203同时也用于为上述实施例中的控制芯片111、多个AI芯片121供电。
存储器204与处理器205电连接;存储器204可用于存储服务器程序和/或模块,处理器205通过运行或执行存储在存储器204内的服务器程序和/或模块,实现服务器装置的各种功能。存储器204可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器204可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件等。
处理器205与计算板卡100电连接,用于协调控制各个AI芯片121的接口。处理器205可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,处理器205是服务器的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
由于上述实施例一中的计算板卡不包括存储单元,本实施例服务器主机200还提供磁盘阵列206,磁盘阵列206是由多块独立的磁盘组合形成的容量巨大的磁盘组,利用个别磁盘提供数据所产生加成效果提升整个磁盘系统效能,如图所示,本实施例中在服务器主机200内设置内接式磁盘阵列卡,用于对计算板卡100计算完成后的数据进行存储。
在计算板卡100工作过程中,处理器205调用存储器204内的服务器程序和/或模块,获取磁盘阵列206内的第一数据,控制芯片111从处理器接收第一数据,根据AI芯片121的数量分解为多个第二数据,通过第一接口112从控制芯片111向AI芯片121分发第二数据运算任务进行计算,AI芯片121将第二数据运算结果返回至控制芯片111。控制芯片111将第二数据运算结果合并为第一数据运算结果,PCIE接口103将接收到的第一数据运算结果传输至外部设备,即磁盘阵列206。
在计算板卡100工作过程中,第一数据指的是预设事件的特征数据,具体地,在本实施例中是需要AI芯片121进行处理的图像数据及其他AI算法任务,第二数据为待处理图像数据或其他AI算法任务根据控制芯片111分解得到的数据,具体为物体、人脸、指纹识别中的一种或多种。第一/第二运算结果为预设事件的多个AI芯片121的运算判断结果。外部设备指的是电脑主板、服务器主板和电源等。
本实施例二通过在计算板卡100表面加装固定卡扣和散热装置,使计算板卡100能在服务器主机箱内占用更小的空间,及时散热,保证计算板卡100正常工作。
多个计算板卡100层叠设置于服务器主板202表面,PCIE转接排线102通过PCIE插槽201将多个计算单元101固定于服务器主板202表面。由于服务器主机200内部比较狭小,通过将计算单元101层叠设置,能够根据需要在服务器主机200内配置多个计算板卡100。
PCIE插槽201具体为具有多个插槽的阵列,每个PCIE插槽201均可用于固定安装一个计算单元101。当安装有多个计算单元101时,服务器可以形成关于AI计算的资源池。需要说明的是,通过PCIE插槽201,计算单元101能够以热插拔方式安装在计算板卡上,可以根据需要调节计算单元101的安装数量。这里,计算单元101通过热插拔方式安装计算单元101,能够方便地调节AI计算的资源池的规模,根据需要进行计算板卡的数量配置,提升服务器主机200的算力。
处理器205与计算单元101电连接,用于协调控制各个AI芯片121的接口。处理器205可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,处理器205是服务器的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
存储器204与处理器205电连接;存储器204可用于存储服务器程序和/或模块,处理器205通过运行或执行存储在存储器204内的服务器程序和/或模块,以及调用存储在存储器204内的数据,实现服务器装置的各种功能。存储器204可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器204可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart MediaCard,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件等。
本实施例中,PCIE转接排线102连接计算板卡100的PCIE插槽201,接收处理器205发送的数据,并将处理器205发送的数据通过PCIE接口131传输至计算板卡100进行数据处理,并接收由计算板卡100返回的处理结果数据。现有技术中PCIE接口131用于连接主机的PCIE插槽201,接收主机发送的数据,在计算板卡100运算能力不可调的情况下,通过增加计算板卡100的数量来增加图像处理能力。而本实施例的PCIE转接排线102可以设置多个PCIE插槽201与计算板卡100连接,即一个服务器内可以同时使用多个计算板卡100,极大地提升了计算板卡100的使用灵活度,降低了硬件成本。
具体地,处理器205调用存储器204内的服务器程序和/或模块,同时获取存储器204内的第一数据,控制芯片111从处理器205接收第一数据,根据AI芯片121的数量分解为多个第二数据,通过第一接口1111从控制芯片111向AI芯片121分发第二数据运算任务进行计算,AI芯片121将第二数据运算结果返回至控制芯片111。控制芯片111将第二数据运算结果合并为第一数据运算结果,PCIE接口131将接收到的第一数据运算结果传输至处理器205。该过程中,第一数据指的是预设事件的特征数据,具体地,在本实施例中是需要AI芯片121进行处理的图像数据及其他AI算法任务,第二数据为待处理图像数据或其他AI算法任务根据控制芯片111分解得到的数据,具体为物体、人脸、指纹识别中的一种或多种。第一/第二运算结果为预设事件的多个AI芯片121的运算判断结果。
本实施例通过PCIE插槽和PCIE转接排线,使多个计算板卡可插拔安装在AI计算计算板卡上,结构简单安装方便,能够负担大容量的图像数据处理及各种类型的AI算法任务。
同时通过增加散热装置,在机箱内形成良好的散热通道,保证服务器主机内多个计算板卡、多个AI芯片始终处于工作温度内运行。
注意,上述仅为本实用新型的较佳实施例及所运用技术原理。本领域技术人员会理解,本实用新型不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本实用新型的保护范围。因此,虽然通过以上实施例对本实用新型进行了较为详细的说明,但是本实用新型不仅仅限于以上实施例,在不脱离本实用新型构思的情况下,还可以包括更多其他等效实施例,而本实用新型的范围由所附的权利要求范围决定。
Claims (7)
1.一种计算板卡,其特征在于包括至少一个计算单元,所述计算单元包括:
控制芯片,所述控制芯片包括第一接口和第二接口;
AI芯片,所述AI芯片包括和所述第一接口连接的第三接口;
PCIE接口,所述控制芯片的第二接口通过所述PCIE接口和外部设备连接;
其中,所述控制芯片从外部设备获取第一数据并传输至所述AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述控制芯片将从外部设备获取的第一数据分解为多个第二数据,将所述多个第二数据传输至所述AI芯片进行分别计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果。
2.根据权利要求1所述的计算板卡,其特征在于,所述计算板卡不包括存储单元。
3.根据权利要求1所述的计算板卡,其特征在于,所述PCIE接口包括供电端,用于为所述控制芯片和AI芯片提供工作电源。
4.根据权利要求1所述的计算板卡,其特征在于,所述外部设备为电脑主板或服务器主板。
5.根据权利要求1所述的计算板卡,其特征在于,所述AI芯片为多个,所述多个AI芯片并行连接至所述控制芯片。
6.根据权利要求1所述的计算板卡,其特征在于,所述第一数据为图像数据,所述第二数据为物体、人脸、指纹中的一种或多种。
7.根据权利要求1所述的计算板卡,其特征在于,进一步包括电源电路,用于为所述控制芯片和AI芯片供电。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201920857961.2U CN209879377U (zh) | 2019-06-06 | 2019-06-06 | 一种计算板卡 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201920857961.2U CN209879377U (zh) | 2019-06-06 | 2019-06-06 | 一种计算板卡 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN209879377U true CN209879377U (zh) | 2019-12-31 |
Family
ID=68946681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201920857961.2U Active CN209879377U (zh) | 2019-06-06 | 2019-06-06 | 一种计算板卡 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN209879377U (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114168516A (zh) * | 2020-09-11 | 2022-03-11 | 华为技术有限公司 | 一种板卡及服务器 |
-
2019
- 2019-06-06 CN CN201920857961.2U patent/CN209879377U/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114168516A (zh) * | 2020-09-11 | 2022-03-11 | 华为技术有限公司 | 一种板卡及服务器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20150347345A1 (en) | Gen3 pci-express riser | |
KR101807310B1 (ko) | 호스트 usb 어댑터 가상화 | |
US9547610B2 (en) | Hybrid memory blade | |
CN110134205B (zh) | 一种ai计算服务器 | |
WO2021244194A1 (zh) | 寄存器的读写方法、芯片、子系统、寄存器组及终端 | |
CN110134206B (zh) | 一种计算板卡 | |
MX2012014354A (es) | Sistemas y metodos para particion dinamica de compilacion multienlace. | |
US10592285B2 (en) | System and method for information handling system input/output resource management | |
CN104881105A (zh) | 电子装置 | |
KR20180018262A (ko) | 패브릭 부착된 장치들을 위한 드라이브 베이를 포함하는 양방향 스위치 | |
CN209879377U (zh) | 一种计算板卡 | |
CN210534653U (zh) | 一种ai计算服务器 | |
TW201222274A (en) | Computer chassis system | |
CN209879419U (zh) | 一种计算板卡 | |
CN108153697A (zh) | 具有热插入功能的主板的服务器系统 | |
EP3637270A1 (en) | External electrical connector and computer system | |
CN216352292U (zh) | 服务器主板及服务器 | |
CN209911891U (zh) | 一种ai计算服务器 | |
CN112181891B (zh) | 基于NVMe的存储板卡以及数据处理方法 | |
CN212569635U (zh) | 一种基于飞腾处理器芯片的vpx计算机主板 | |
US20110153901A1 (en) | Virtual usb key for blade server | |
CN113552926A (zh) | 电缆模块 | |
CN112286335A (zh) | 主设备以及控制其的系统和方法 | |
US20220342835A1 (en) | Method and apparatus for disaggregation of computing resources | |
CN218995962U (zh) | 兼容PCIe的GPU服务器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GR01 | Patent grant | ||
GR01 | Patent grant |