CN112667556A - Gpu服务器和图像处理系统 - Google Patents
Gpu服务器和图像处理系统 Download PDFInfo
- Publication number
- CN112667556A CN112667556A CN202011538195.7A CN202011538195A CN112667556A CN 112667556 A CN112667556 A CN 112667556A CN 202011538195 A CN202011538195 A CN 202011538195A CN 112667556 A CN112667556 A CN 112667556A
- Authority
- CN
- China
- Prior art keywords
- gpu
- server
- chip
- gpus
- communication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 claims abstract description 61
- 238000001514 detection method Methods 0.000 claims description 36
- 230000017525 heat dissipation Effects 0.000 claims description 35
- 230000002093 peripheral effect Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 238000011217 control strategy Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
本申请涉及一种GPU服务器和图像处理系统。GPU服务器包括:CPU主板、扩展芯片、交换芯片和至少两个GPU底板,每个GPU底板上包括两个可相互通信的GPU;CPU主板通过扩展芯片与至少两个GPU底板连接,用于与GPU底板上的GPU进行第一模式通信;至少两个GPU底板分别与交换芯片连接,用于通过交换芯片进行至少两个GPU底板之间的第二模式通信;第一模式通信和第二模式通信不同。用户通过对GPU底板个数的选择,设置不同个数GPU实现对GPU服务器的灵活配置。GPU底板上只设置了两个GPU,通信线路相对较短,链路损耗较小,可选择成本相对较低的M4等级PCB板材作为GPU底板,以降低GPU服务器的成本。
Description
技术领域
本申请涉及GPU服务器技术领域,特别是涉及一种GPU服务器和图像处理系统。
背景技术
传统的GPU(Graphics Processing Unit,图形处理器)服务器为扣卡式GPU服务器,其因包括具有强大的并行计算能力的GPU而广泛应用于高性能计算、深度学习等领域。
在GPU服务器的布局中,通常会包括1-2块相互连接的GPU底板以及CPU主板,GPU底板上的GPU可以与CPU主板进行PCIE(peripheral component interconnect express,高速串行计算机扩展总线)通信,并且GPU底板上的GPU之间还可以进行NVLINK通信。
以连接有8颗GPU的底板为例,8颗GPU之间需要采用大量NVLINK总线通信连接,并且由于底板边缘两侧GPU之间NVLINK总线相对较长,为了满足链路损耗要求,需要采用M6等级以上的价格较为昂贵的低损耗或者超低损耗等级的PCB板材,增加了GPU服务器的成本。
发明内容
基于此,有必要针对上述技术问题,提供一种GPU服务器和图像处理系统。
一种GPU服务器,包括:CPU主板、扩展芯片、交换芯片和至少两个GPU底板,每个GPU底板上包括两个可相互通信的GPU;
CPU主板通过扩展芯片与至少两个GPU底板连接,用于与GPU底板上的GPU进行第一模式通信;
至少两个GPU底板分别与交换芯片连接,用于通过交换芯片进行至少两个GPU底板之间的第一模式通信;其中,第一模式通信和第二模式通信不同。
本实施例中,上述GPU服务器中的GPU底板上包括两个可相互通信的GPU,用户可对GPU底板的个数进行选择,在GPU服务器中设置不同个数的GPU,通过设置不同个数GPU实现对GPU服务器的灵活配置,以满足不同的图像处理需求,提高了GPU服务器的使用灵活性。并且,由于GPU底板上只设置了两个GPU,这两个GPU之间所需的通信线路相对较短,相应地链路损耗就较小,对于承载该GPU的GPU底板可选择成本相对较低的M4等级PCB板材,以通过降低GPU底板成本的方式降低GPU服务器的成本。
在其中一个实施例中,GPU底板包括第一连接器和第二连接器;
GPU通过第一连接器与CPU主板进行第一模式通信的连接;
GPU底板通过第二连接器与交换芯片进行第二模式通信的连接。
本实施例中,GPU底板上包括第一连接器和第二连接器,通过第一连接器搭建CPU与GPU之间的链路通信,实现了CPU到GPU的信号传输,通过第二连接器搭建GPU与GPU之间的链路通信,实现了GPU之间的数据共享。通过上述第一连接器和第二连接器提高了信号/数据传输的稳定性,降低了信号/数据传输的干扰,提高了传输效率和质量。
在其中一个实施例中,扩展芯片为PCIE开关芯片,第一模式通信为CPU主板与GPU之间的PCIE通信;交换芯片为高速开关芯片,第二模式通信为两个GPU之间的外设IO通信。
在其中一个实施例中,扩展芯片与至少两个GPU底板通过线缆连接。
在其中一个实施例中,第一连接器包括预留的检测引脚;检测引脚通过上拉电阻或者下拉电阻连接到地;
CPU主板用于读取检测引脚的逻辑电平,通过逻辑电平确定GPU的在位状态,并根据在位状态从至少两个GPU底板中确定执行图像处理的目标GPU。
本实施例中,GPU服务器通过在第一连接器设置检测引脚,采用CPU获取连接上拉电阻/下拉电阻的检测引脚的逻辑电平,通过检测引脚即可实现对GPU在位状态的检测,明确GPU与GPU底板的连接状态,以确定目标GPU,实现CPU对目标GPU进行高效的任务分配,提高每一GPU的图像处理效率,避免盲目分配造成的图像处理效率下降。
在其中一个实施例中,CPU主板包括主板管理控制器,主板管理控制器通过上拉电阻或者下拉电阻检测检测引脚的逻辑电平。
本实施例中,GPU服务器在第一连接器中设置检测引脚,采用CPU中的主板管理控制器实现对检测引脚的逻辑电平的获取,以明确GPU与GPU底板的连接状态,无需对GPU设置另外的检测装置,简化了GPU服务器结构。
在其中一个实施例中,主板管理控制器连接散热装置,主板管理控制器还用于获取目标GPU的温度,根据目标GPU的温度确定散热装置的散热速度。
本实施例中,GPU服务器还包括连接主板管理控制器的散热装置,主板控制器根据获取的GPU的温度确定不同的散热装置的散热速度,以满足GPU的实际散热需求,提高GPU服务器的散热效果,延长GPU使用寿命。针对每个GPU设置散热装置时,还可以提高散热针对性,进一步提高散热效果。
在其中一个实施例中,CPU主板还包括与主板管理控制器连接的复杂可编程逻辑芯片,复杂可编程逻辑芯片用于控制目标GPU的上电时序。以此实现每一目标GPU正常有序上电工作,提高了GPU服务器整体的图像处理效率。
在其中一个实施例中,同一个GPU底板上的两个GPU之间通过高速总线连接。
一种图像处理系统,包括GPU服务器,GPU服务器包括:
CPU主板、扩展芯片、交换芯片和至少两个GPU底板,每个GPU底板上包括两个可相互通信的GPU;
CPU主板通过扩展芯片与至少两个GPU底板连接,用于与GPU底板上的GPU进行第一模式通信;
至少两个GPU底板分别与交换芯片连接,用于通过交换芯片进行至少两个GPU底板之间的第二模式通信;其中,第一模式通信和第二模式通信不同。
上述图像处理系统中GPU服务器的GPU底板上包括两个可相互通信的GPU,用户可根据对GPU底板个数的选择,通过设置不同个数GPU实现对GPU服务器的灵活配置,以满足不同的图像处理需求,提高了GPU服务器的使用灵活性。并且,由于GPU底板上只设置了两个GPU,这两个GPU之间所需的通信线路相对较短,相应地链路损耗就较小,对于承载该GPU的GPU底板可选择成本相对较低的M4等级PCB板材,以通过降低GPU服务器的成本的方式降低了整个图像处理系统的成本。
附图说明
图1为一个实施例中GPU服务器的结构示意图;
图2为另一个实施例中GPU服务器的结构示意图;
图3为另一个实施例中GPU服务器的结构示意图;
图4为一个实施例中图像处理系统的结构框图。
附图标记说明:
101:CPU主板 102:扩展芯片 103:交换芯片
104:GPU底板 1041:第一连接器 1042:第二连接器
1043:第三连接器
105:GPU 106:检测引脚 1061:上/下拉电阻
107:散热装置
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
GPU(Graphics Processing Unit,图形处理器)又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上图像运算工作的微处理器。多个GPU单元互联与CPU形成具有更强图像运算能力的GPU服务器,可用于对3D图像进行构建、渲染等处理。每个GPU单元上包括GPU底板和GPU,GPU与GPU底板卡扣式连接,再通过设置在GPU底板上的连接器(CNT)与CPU连接。
PCIE(peripheral component interconnect express,高速串行计算机扩展总线标准)是一种高速串行总线,用于连接外设。应用于上述GPU服务器时,可连接CPU与GPU,实现CPU与GPU之间的PCIE通信。PCIE传输速率包括Gen12.5GT/s、Gen2 5.0GT/s、Gen3 8.0GT/s以及Gen4 16.0GT/s等。
下面以具体的实施例对本申请的技术方案以及本申请的技术方案如何解决技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
在一个实施例中,提供了一种GPU服务器的结构示意图。如图1所示,该GPU服务器包括:CPU主板101、扩展芯片102、交换芯片103和至少两个GPU底板104,每个GPU底板104上包括两个可相互通信的GPU 105。CPU主板101通过扩展芯片102与至少两个GPU底板104连接,用于与GPU底板104上的GPU 105进行第一模式通信。至少两个GPU底板104分别与交换芯片102连接,用于通过交换芯片102进行至少两个GPU底板104之间的第二模式通信。其中,第一模式通信和第二模式通信不同。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,CPU主板101用于根据输入的待处理图像确定所需的图像处理需求,并将图像处理需求通过扩展芯片102发送至GPU底板104上的GPU 105。扩展芯片102用于扩展CPU主板101上的PCIE链路,以使CPU主板101与更多的GPU 105连接。例如,CPU主板101上包括1*16条PCIE链路,每个GPU 105需要与CPU主板101上的16条PCIE链路连接,扩展芯片102将CPU主板101上的1*PCIE链路扩展为n*PCIE链路,以使n个GPU 105与CPU主板101连接。交换芯片103用于实现与交换芯片103连接的GPU底板104上GPU 105的共同工作,以满足所需的图像处理需求。至少两个GPU底板104用于承载GPU105,而GPU 105用于处理图像。
在通过上述GPU服务器进行图像处理时,CPU主板101接收到图像处理需求,并通过扩展芯片102将图像处理需发送至各个GPU底板104上的GPU 105,采用交换芯片103连接的GPU底板104上的GPU 105进行图像处理,以满足图像处理需求。
上述扩展芯片102与至少两个GPU底板104连接,至少两个GPU底板104分别与交换芯片102连接,以及两个可相互通信的GPU 105之间的连接,均可通过总线或者线缆连接,本实施例中不做具体限定。
可选地,上述扩展芯片102与至少两个GPU底板104连接,至少两个GPU底板104分别与交换芯片102连接,以及两个可相互通信的GPU 105之间的连接,均可通过总线或者线缆直接连接,还可以在实现连接的总线/线缆上接入限流或者限压的元器件,实现对GPU服务器的安全防护。
本实施例中,上述GPU服务器中的GPU底板上包括两个可相互通信的GPU,用户可对GPU底板的个数进行选择,在GPU服务器中设置不同个数的GPU,通过设置不同个数GPU实现对GPU服务器的灵活配置,以满足不同的图像处理需求,提高了GPU服务器的使用灵活性。并且,由于GPU底板上只设置了两个GPU,这两个GPU之间所需的通信线路相对较短,相应地链路损耗就较小,对于承载该GPU的GPU底板可选择成本相对较低的M4等级PCB板材,以通过降低GPU底板成本的方式降低GPU服务器的成本。
在其中一个实施例中,如图2所示,GPU底板104包括第一连接器1041和第二连接器1042。其中,GPU 105通过第一连接器1041与CPU主板101进行第一通信连接;GPU底板104通过第二连接器1042与交换芯片103进行第二通信连接。
可选地,同一个GPU底板104上的两个GPU 105之间通过高速总线连接。
可选的,GPU底板104还包括电源连接器1043,GPU 105通过电源连接器1043(PERCNT)连接电源。
可选地,扩展芯片102为PCIE开关芯片(PCIE switch)。第一连接器1041为PCIE连接器,用于实现CPU主板101与GPU 105之间的PCIE通信连接。相应地,第一模式通信为CPU主板101与GPU 105之间的PCIE通信。
可选地,交换芯片103为高速开关芯片(高速switch),第二连接器1042为I/O外设连接器,用于实现GPU 105之间的IO通信连接。相应地,第二模式通信为GPU 105之间的外设IO通信。
本实施例中,GPU底板上包括第一连接器和第二连接器,通过第一连接器搭建CPU与GPU之间的链路通信,实现了CPU到GPU的信号传输,通过第二连接器搭建GPU与GPU之间的链路通信,实现了GPU之间的数据共享。通过上述第一连接器和第二连接器提高了信号/数据传输的稳定性,降低了信号/数据传输的干扰,提高了传输效率和质量。
图3为另一实施例中GPU服务器的结构示意图。在上述实施例的基础上,如图3所示,第一连接器1041包括预留的检测引脚106。检测引脚通过106上拉电阻或者下拉电阻1061连接到地。CPU主板101用于读取检测引脚106的逻辑电平,通过逻辑电平确定GPU的在位状态,并根据在位状态从至少两个GPU底板中确定执行图像处理的目标GPU。
其中,GPU服务器中的每一个GPU 105与一个第一连接器1041连接,实现GPU 105与CPU主板101之间的通信。与每一GPU 105连接的第一连接器1041上的检测引脚106与上拉电阻或者下拉电阻1061连接地,CPU主板101读取检测引脚106的逻辑电平,根据逻辑电平确定GPU 105的在位状态,并根据在位状态从至少两个GPU底板104中确定执行图像处理的目标GPU。
GPU服务器通过在第一连接器设置检测引脚,采用CPU获取连接上拉电阻/下拉电阻的检测引脚的逻辑电平,通过检测引脚即可实现对GPU在位状态的检测,明确GPU与GPU底板的连接状态,以确定目标GPU,实现CPU对目标GPU进行高效的任务分配,提高每一GPU的图像处理效率,避免盲目分配造成的图像处理效率下降。
可选的,GPU服务器中的CPU主板101还包括主板管理控制器1012(BMC,BaseboardManagement Controller)。在对逻辑电平检测时,可以通过CPU主板101上的BMC 1012进行检测,即主板管理控制器1012通过上拉电阻或者下拉电阻检测检测引脚的逻辑电平,通过逻辑电平确定GPU 105的在位状态,并根据在位状态从至少两个GPU底板104中确定执行图像处理的目标GPU。
具体地,参见图3所示,GPU底板104上在位的GPU 105即为执行图像处理的目标GPU。在GPU底板104上的两GPU 105通过各自的第一连接器1041连接下拉电阻时,输出低电平0则表示对应的GPU 105在位,即该GPU 105与GPU底板104连接正常,输出高电平1则表示对应GPU 105不在位,即该GPU105与GPU底板104连接不正常。也就是说,输出00代表2颗GPU105均在位,2颗GPU 105均为目标GPU;01或者10代表1颗GPU 105在位,2颗GPU 105中一颗GPU 105为目标GPU;11代表2颗GPU 105均不在位,2颗GPU 105均不为目标GPU。同理,还可以在GPU底板104上的两GPU 105通过各自的第一连接器1041连接上拉电阻,以确定在位的GPU105。其中,输出低电平0则表示对应的GPU 105不在位,输出高电平1则表示对应GPU 105在位。
可选的,GPU服务器中的CPU主板101上还包括I/O扩展芯片1011,在进行逻辑电平检测时,BMC 1012可以通过I/O扩展芯片1011对检测引脚106的逻辑电平进行检测。可选的,I/O扩展芯片1011可以是PCA9555芯片。
可选的,GPU服务器中的CPU主板104可以通过主板管理控制器1012采用轮询或者中断机制的方式读取检测引脚106的逻辑电平,以确定GPU 105的在位状态和目标GPU。
本实施例中,GPU服务器在第一连接器中设置检测引脚,采用CPU中的主板管理控制器实现对检测引脚的逻辑电平的获取,以明确GPU与GPU底板的连接状态,无需对GPU设置另外的检测装置,简化了GPU服务器的结构。
继续基于图3所示,在一个可能的实施方式中,上述主板管理控制器1012还可以连接散热装置107,主板管理控制器1012还用于获取目标GPU的温度,根据目标GPU的温度确定散热装置107的散热速度。其中,散热装置107可以是一个也可以是多个。
可选地,在GPU服务器包括一个散热装置107时,主板管理控制器1012可以计算得到GPU服务器内所有目标GPU的平均温度,并根据预设的温度-散热速度关系确定该平均温度所对应的散热速度,进而控制散热装置107以得到的散热速度进行散热。
可选地,在GPU服务器包括多个散热装置107时,每个散热装置107相对于一GPU105设置,主板管理控制器1012获取每一GPU 105的温度,并根据预设的温度-散热速度关系确定每一GPU 105的温度所对应的散热速度,进而控制每一散热装置106以对应的散热速度对相应的GPU 105进行散热。
具体地,该散热装置107可以是风扇,GPU服务器可根据GPU 105的温度通过主板控制管理器1012控制风扇进行对应的风扇管理控制策略,例如,根据温度控制风扇执行不同的散热速度即执行不同风速。
GPU服务器还包括连接主板管理控制器的散热装置,主板控制器根据获取的GPU的温度确定不同的散热装置的散热速度,以满足GPU的实际散热需求,提高GPU服务器的散热效果,延长GPU使用寿命。针对每个GPU设置散热装置时,还可以提高散热针对性,进一步提高散热效果。
可选的,在一个实施例中,上述CPU主板101还包括与主板管理控制器1012连接的复杂可编程逻辑(CPLD,Complex Programming logic device)芯片1013,复杂可编程逻辑芯片用于控制目标GPU的上电时序。主板管理控制器1012通过I2C(Inter Integrated-Circuit,低速总线)连接CPLD芯片1013。GPU服务器通过CPLD芯片1013控制目标GPU的上电时序,以此保证每一目标GPU正常有序上电工作,提高了GPU服务器整体的图像处理效率。
可选的,在一个实施例中,所述GPU服务器包括8个GPU底板,所述8个GPU底板位于同一机箱中。以此实现对包括2~16颗GPU的GPU服务器的灵活配置,同时减小了GPU服务器的体积,降低了GPU服务器的制造成本。
在一个实施例中,如图4所示,一种图像处理系统,包括GPU服务器。GPU服务器包括:CPU主板、扩展芯片、交换芯片和至少两个GPU底板,每个GPU底板上包括两个可相互通信的GPU。
CPU主板通过扩展芯片与至少两个GPU底板连接,用于与GPU底板上的GPU进行第一模式通信。至少两个GPU底板分别与交换芯片连接,用于通过交换芯片进行至少两个GPU底板之间的第二模式通信。
其中一个实施例中,GPU底板包括第一连接器和第二连接器。GPU通过第一连接器与CPU主板进行第一模式通信的连接;GPU底板通过第二连接器与交换芯片进行第二模式通信的连接。
其中一个实施例中,扩展芯片为PCIE开关芯片,第一模式通信为CPU主板与GPU之间的PCIE通信;交换芯片为高速开关芯片,第二模式通信为两个GPU之间的外设IO通信。
其中一个实施例中,扩展芯片与至少两个GPU底板通过线缆连接。
其中一个实施例中,第一连接器包括预留的检测引脚;检测引脚通过上拉电阻或者下拉电阻连接到地;CPU主板用于读取检测引脚的逻辑电平,通过逻辑电平确定GPU的在位状态,并根据在位状态从至少两个GPU底板中确定执行图像处理的目标GPU。
其中一个实施例中,CPU主板包括主板管理控制器,主板管理控制器通过上拉电阻或者下拉电阻检测检测引脚的逻辑电平。
其中一个实施例中,主板管理控制器连接散热装置,主板管理控制器还用于获取目标GPU的温度,根据所述目标GPU的温度确定散热装置的散热速度。
其中一个实施例中,CPU主板还包括与主板管理控制器连接的复杂可编程逻辑芯片,复杂可编程逻辑芯片用于控制所述目标GPU的上电时序。
其中一个实施例中,GPU服务器包括8个GPU底板,8个GPU底板位于同一机箱中。
其中一个实施例中,同一个GPU底板上的两个GPU之间通过高速总线连接。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种GPU服务器,其特征在于,包括:CPU主板、扩展芯片、交换芯片和至少两个GPU底板,每个所述GPU底板上包括两个可相互通信的GPU;
所述CPU主板通过所述扩展芯片与所述至少两个GPU底板连接,用于与所述GPU底板上的GPU进行第一模式通信;
所述至少两个GPU底板分别与所述交换芯片连接,用于通过所述交换芯片进行至少两个GPU底板之间的第二模式通信;其中,所述第一模式通信和第二模式通信不同。
2.根据权利要求1所述的GPU服务器,其特征在于,所述GPU底板包括第一连接器和第二连接器;
所述GPU通过所述第一连接器与所述CPU主板进行所述第一模式通信的连接;
所述GPU底板通过所述第二连接器与所述交换芯片进行所述第二模式通信的连接。
3.根据权利要求2所述的GPU服务器,其特征在于,所述扩展芯片为PCIE开关芯片,所述第一模式通信为所述CPU主板与所述GPU之间的PCIE通信;
所述交换芯片为高速开关芯片,所述第二模式通信为两个GPU之间的外设IO通信。
4.根据权利要求1所述的GPU服务器,其特征在于,所述扩展芯片与所述至少两个GPU底板通过线缆连接。
5.根据权利要求2所述的GPU服务器,其特征在于,所述第一连接器包括预留的检测引脚;所述检测引脚通过上拉电阻或者下拉电阻连接到地;
所述CPU主板用于读取所述检测引脚的逻辑电平,通过所述逻辑电平确定所述GPU的在位状态,并根据所述在位状态从所述至少两个GPU底板中确定执行图像处理的目标GPU。
6.根据权利要求5所述的GPU服务器,其特征在于,所述CPU主板包括主板管理控制器,
所述主板管理控制器通过所述上拉电阻或者所述下拉电阻检测所述检测引脚的逻辑电平。
7.根据权利要求6所述的GPU服务器,所述主板管理控制器连接散热装置,所述主板管理控制器还用于获取目标GPU的温度,根据所述目标GPU的温度确定所述散热装置的散热速度。
8.根据权利要求5所述的GPU服务器,其特征在于,所述CPU主板还包括与所述主板管理控制器连接的复杂可编程逻辑芯片,所述复杂可编程逻辑芯片用于控制所述目标GPU的上电时序。
9.根据权利要求1-7任一项所述的GPU服务器,其特征在于,同一个GPU底板上的两个GPU之间通过高速总线连接。
10.一种图像处理系统,其特征在于,所述系统包括权利要求1-9任一项所述的GPU服务器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011538195.7A CN112667556A (zh) | 2020-12-23 | 2020-12-23 | Gpu服务器和图像处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011538195.7A CN112667556A (zh) | 2020-12-23 | 2020-12-23 | Gpu服务器和图像处理系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112667556A true CN112667556A (zh) | 2021-04-16 |
Family
ID=75408483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011538195.7A Pending CN112667556A (zh) | 2020-12-23 | 2020-12-23 | Gpu服务器和图像处理系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112667556A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113900984A (zh) * | 2021-09-29 | 2022-01-07 | 苏州浪潮智能科技有限公司 | 一种单节点与多节点互联和切换的电路和服务器 |
CN114123457A (zh) * | 2021-12-01 | 2022-03-01 | 新华三信息技术有限公司 | 一种供电方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7598958B1 (en) * | 2004-11-17 | 2009-10-06 | Nvidia Corporation | Multi-chip graphics processing unit apparatus, system, and method |
CN107659437A (zh) * | 2017-09-15 | 2018-02-02 | 郑州云海信息技术有限公司 | 一种整机柜计算资源池资源自动识别系统及方法 |
CN109669901A (zh) * | 2018-12-03 | 2019-04-23 | 郑州云海信息技术有限公司 | 一种服务器 |
CN109933552A (zh) * | 2019-02-27 | 2019-06-25 | 苏州浪潮智能科技有限公司 | 一种通用gpu节点装置及通用16gpu box装置 |
-
2020
- 2020-12-23 CN CN202011538195.7A patent/CN112667556A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7598958B1 (en) * | 2004-11-17 | 2009-10-06 | Nvidia Corporation | Multi-chip graphics processing unit apparatus, system, and method |
CN107659437A (zh) * | 2017-09-15 | 2018-02-02 | 郑州云海信息技术有限公司 | 一种整机柜计算资源池资源自动识别系统及方法 |
CN109669901A (zh) * | 2018-12-03 | 2019-04-23 | 郑州云海信息技术有限公司 | 一种服务器 |
CN109933552A (zh) * | 2019-02-27 | 2019-06-25 | 苏州浪潮智能科技有限公司 | 一种通用gpu节点装置及通用16gpu box装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113900984A (zh) * | 2021-09-29 | 2022-01-07 | 苏州浪潮智能科技有限公司 | 一种单节点与多节点互联和切换的电路和服务器 |
CN113900984B (zh) * | 2021-09-29 | 2023-06-20 | 苏州浪潮智能科技有限公司 | 一种单节点与多节点互联和切换的电路和服务器 |
CN114123457A (zh) * | 2021-12-01 | 2022-03-01 | 新华三信息技术有限公司 | 一种供电方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3128932U (ja) | Cpuカード及びコンピュータ | |
CN100541444C (zh) | 多主板系统之管理系统 | |
CN112667556A (zh) | Gpu服务器和图像处理系统 | |
CN104881105A (zh) | 电子装置 | |
CN108874711B (zh) | 一种优化散热的硬盘背板系统 | |
CN107463224B (zh) | 显卡扩展板及应用其的主机、计算设备 | |
CN107070548A (zh) | 一种自动调节qsfp+光模块功率等级的装置及方法 | |
CN110554983A (zh) | 交换电路板 | |
CN114661099A (zh) | 一种主板、处理器板卡及计算系统 | |
CN109410117B (zh) | 图形处理器系统 | |
CN107908585A (zh) | 一种具有pcie卡及gpu超运算功能的pcie box板 | |
CN209327954U (zh) | 一种电子设备及其扩展板卡系统 | |
CN218768130U (zh) | 一种支持CXL信号和PCIe信号的硬盘背板及存储装置 | |
US6906929B2 (en) | Computer backplane with an accelerated graphics port | |
CN216352292U (zh) | 服务器主板及服务器 | |
CN115858426A (zh) | 一种硬盘接口、硬盘及电子设备 | |
CN113568847B (zh) | 一种网卡与处理器的互联装置及服务器 | |
CN103180819A (zh) | 多处理器计算机系统和方法 | |
CN113741648A (zh) | 一种计算机硬件系统 | |
CN209248518U (zh) | 一种固态硬盘扩展板卡及服务器 | |
CN100435125C (zh) | 总线宽度自动调整系统 | |
CN219162633U (zh) | 计算机设备及计算机系统 | |
CN111159078B (zh) | 一种电子设备 | |
CN218273375U (zh) | 基于ast2500的bmc管理模块及服务器系统 | |
CN216286659U (zh) | 一种基于国产化vpx架构高速数据处理设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |