CN110134205B - 一种ai计算服务器 - Google Patents

一种ai计算服务器 Download PDF

Info

Publication number
CN110134205B
CN110134205B CN201910492833.7A CN201910492833A CN110134205B CN 110134205 B CN110134205 B CN 110134205B CN 201910492833 A CN201910492833 A CN 201910492833A CN 110134205 B CN110134205 B CN 110134205B
Authority
CN
China
Prior art keywords
server
computing
data
area
board
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910492833.7A
Other languages
English (en)
Other versions
CN110134205A (zh
Inventor
宋粮勇
刘云
刘青青
闫骏
阮剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yunduo Data Technology Co ltd
Original Assignee
Shenzhen Yunduo Data Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Yunduo Data Technology Co ltd filed Critical Shenzhen Yunduo Data Technology Co ltd
Priority to CN201910492833.7A priority Critical patent/CN110134205B/zh
Publication of CN110134205A publication Critical patent/CN110134205A/zh
Application granted granted Critical
Publication of CN110134205B publication Critical patent/CN110134205B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • G06F1/183Internal mounting support structures, e.g. for printed circuit boards, internal connecting means
    • G06F1/184Mounting of motherboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/20Cooling means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Power Engineering (AREA)
  • Multi Processors (AREA)
  • Cooling Or The Like Of Electrical Apparatus (AREA)

Abstract

本发明实施例公开了一种AI计算服务器,其包括:机箱,机箱包括依序设置的第一区域、第二区域和第三区域;设置在第一区域的服务器主板;平行服务器主板设置的AI计算板卡,AI计算板卡通过PCIE转接排线和服务器主板电连接;设置在第三区域的硬盘阵列,硬盘阵列通过数据排线和服务器主板电连接;设置在第二区域的第一散热装置,第一散热装置包括间隔第一区域和第三区域的散热器支架,散热器支架包括联通第一区域和第三区域的散热通道,第一散热装置还包括散热风扇,散热风扇固定在散热通道内。实现多个AI计算板卡能够重叠横置于服务器的狭小空间内,且散热通道在机箱内密集板卡之间形成良好的散热通道,保证了机箱的始终处于工作温度内运行的效果。

Description

一种AI计算服务器
技术领域
本发明实施例涉及AI计算领域,特别是一种AI计算服务器。
背景技术
随着互联网和信息行业的快速发展,各种声音、图像、视频数据均呈井喷式的发展,大数据处理已经逐步取代传统的人工数据处理,而人工智能(简称AI)技术的应用使得大数据分析处理能力得到再一次飞跃。
深度学习技术引发了人工智能应用的高速发展,引领人类由信息时代进入智能时代。深度学习本质是一种机器学习技术,需要强大的硬件计算能力,来完成复杂的数据处理和运算。对于如此庞大的数据处理和运算,现有的人工智能解决方案中,采用专用的AI计算板卡执行深度学习运算,但是即使单个超高性能的AI计算板卡,其处理能力也远远达不到运算需求,图像处理能力也不足。
现有技术AI计算服务器都是大型设备,一般通过数量较多的GPU组成算力阵列,外载图像处理模块,目前还没有适用单机箱的功能强大的AI计算服务器。
发明内容
本发明提供一种AI计算服务器,以实现多个算力板卡能够重叠横置于服务器的狭小空间内和构成最小图像特征处理中心。
本发明实施例提出一种AI计算服务器,包括:
机箱,所述机箱包括依序设置的第一区域、第二区域和第三区域;
设置在所述第一区域的服务器主板和图像处理板卡,所述图像处理板卡,和所述服务器主板的显卡接口连接;
设置在第三区域的AI计算板卡,所述AI计算板卡通过PCIE转接排线和所述服务器主板电连接;
设置在第三区域的硬盘阵列,所述硬盘阵列通过数据排线和服务器主板电连接;
设置在第二区域的第一散热装置,所述第一散热装置包括间隔第一区域和第三区域的散热器支架,散热器支架包括联通所述第一区域和第三区域的散热通道,所述第一散热装置还包括散热风扇,所述散热风扇固定在所述散热通道内。
进一步地,AI计算服务器还包括设置在第一区域的电源模块,所述电源模块一端固定在机箱的入风口,电源模块另一端的出风口朝向所述第一散热装置。
进一步地,所述AI计算板卡为多个,所述多个AI计算板卡层叠放置,每个AI计算板卡的侧部和服务器侧壁固定。
进一步地,AI计算服务器还包括安装在所述服务器主板的处理器和存储器。
进一步地,AI计算服务器还包括和所述处理器连接的第二散热装置。
进一步地,所述AI计算板卡包括转接板卡和算力板卡,
所述转接板卡包括M.2插座、桥接芯片和PCIE接口,所述桥接芯片包括第一接口和第二接口,所述第一接口连接所述M.2插座;所述第二接口连接所述PCIE接口;
所述算力板卡包括M.2插头和AI芯片,所述AI芯片包括和所述M.2插头连接的数据接口,所述M.2插头和所述M.2插座可拆卸式连接;
其中,所述桥接芯片通过PCIE接口从外部设备获取第一数据并传输至所述AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述桥接芯片将从外部设备获取多个第二数据,将所述多个第二数据并行传输至多个AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果。
进一步地,所述算力板卡包括控制芯片,每个算力板卡包括的AI芯片为多个,所述多个AI芯片通过所述控制芯片连接至所述M.2插头。
进一步地,所述算力板卡为多个,所述多个算力板卡并行连接至所述桥接芯片。
进一步地,每个算力板卡包括的AI芯片为多个,所述多个AI芯片并行连接至所述控制芯片。
进一步地,所述散热器支架还包括第一排线孔或/和第二排线孔,所述第一排线孔用于穿设PCIE转接排线,所述第二排线孔用于穿设数据排线。
本发明一个机箱内集成了图像处理板卡和AI计算板卡,本发明的服务器可以构成最小图像特征处理中心,针对特定区域如小区,进行图像特征算力中心,实时解析监控录像每帧画面的图像特征对视频进行特征打标和压缩存储。
附图说明
图1是本发明实施例一中的一种AI计算服务器的结构示意图。
图2是本发明实施例二中的一种AI计算板卡的结构示意图。
图3是本发明实施例二中的一种算力板卡的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
此外,术语“第一”、“第二”等可在本文中用于描述各种方向、动作、步骤或元件等,但这些方向、动作、步骤或元件不受这些术语限制。这些术语仅用于将第一个方向、动作、步骤或元件与另一个方向、动作、步骤或元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一速度差值为第二速度差值,且类似地,可将第二速度差值称为第一速度差值。第一速度差值和第二速度差值两者都是速度差值,但其不是同一速度差值。术语“第一”、“第二”等而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
实施例一
图1为本发明实施例一提供的一种AI(Artificial Intelligence,人工智能)计算服务器的结构示意图,本实施例可适用于多个算力板卡能够装于服务器的狭小空间内情况。
本实施例提供的一种AI计算服务器包括机箱1、服务器主板2、AI计算板卡3、硬盘阵列4和第一散热装置5。
机箱1,所述机箱1包括依序设置的第一区域101、第二区域102和第三区域103。
设置在所述第一区域101的服务器主板2和图像处理板卡6,所述图像处理板卡6,和所述服务器主板2的显卡接口连接。
设置在第三区域的AI计算板卡3,所述AI计算板卡3通过PCIE转接排线7和所述服务器主板2电连接。
设置在第三区域103的硬盘阵列4,所述硬盘阵列4通过数据排线和服务器主板2电连接。
设置在第二区域102的第一散热装置5,所述第一散热装置5包括间隔第一区域101和第三区域103的散热器支架501,散热器支架501包括联通所述第一区域101和第三区域103的散热通道5011,所述第一散热装置5还包括散热风扇,所述散热风扇固定在所述散热通道5011内。
本实施例,机箱1一般包括外壳、支架、面板上的各种开关、指示灯等。外壳用钢板和塑料结合制成,硬度高,主要起保护机箱1内部元件的作用。支架主要用于固定主板、电源和各种部件,并且将机箱1分隔为第一区域101、第二区域102和第三区域103。
服务器主板2固定在机箱1的第一区域101,图像处理板卡6通过和服务器主板2上的显卡接口连接与CPU进行数据交流,用于完成图像信号的采集、处理、存储,并将原始图像数据和特征值数据打包传输至计算机主机部分。AI计算板卡3安装于第三区域103,与服务器主板2平行安装,AI计算板卡3通过PCIE转接排线7和服务器主板2电连接。PCIE转接排线7用于连接服务器主板2的PCIE插槽,接收主机CPU发送的数据,并将服务器主板2的CPU发送的数据发送给AI计算板卡3。同时,PCIE转接排线7还用于向服务器主板2的CPU返回AI计算板卡3的运算结果数据。现有技术中AI计算板卡的PCIE接口用于连接主机的PCIE插槽,接收主机CPU发送的数据,在AI计算板卡运算能力不可调的情况下,如果需要增加GPU运算能力则需要外部连接GPU来增加图像处理能力。而本实施例的PCIE转接排线7可以设置多个PCIE插槽与AI计算板卡3连接,也就是说一个服务器内可以同时使用多个AI计算板卡,极大地提升了AI计算板卡的使用灵活度,降低了硬件成本。
硬盘阵列4设置在机箱1的第三区域103,把相同的数据存储在多个硬盘的不同的地方(因此,冗余地)的方法。通过把数据放在多个硬盘上,输入输出操作能以平衡的方式交叠,改良性能。因为多个硬盘增加了平均故障间隔时间(MTBF),储存冗余数据也增加了容错。硬盘阵列能够提供在线扩容、动态修改阵列级别、自动数据恢复、驱动器漫游、超高速缓冲等功能。它能提供性能、数据保护、可靠性、可用性和可管理性的解决方案。硬盘阵列4通过数据排线和服务器主板2电连接。排线减少了内连所需的硬体,如传统的电子封装上常用的焊点、中继线、底板线路及线缆,使排线可以提供更高的装配可靠性和质量。
运行强度大的服务器所使用的CPU至少为两个或更多,而且加上内部多采用SCSI磁盘阵列的形式,因而使得服务器内部发热量很大,所以良好的散热性是一款优秀服务器机箱的必备条件。散热性能主要表现在三个方面,一是风扇的数量和位置,二是散热通道的合理性,三是机箱材料的选材。本实施例的第一散热装置5设置在第二区域102,包括将机箱1分隔成第一区域101、第二区域102和第三区域103的散热器支架501。散热器支架501通过联通所述第一区域101和第三区域103的散热通道5011隔离硬盘和主板,为硬盘和主板分别设置单独的散热通道5011,通过固定在散热通道5011内部的散热风扇对散热通道5011的风进行出风,进入主板和电源的风不再为热风,这样避免因为热量传递和窜扰导致的散热恶化,并通过各分区独立工作独立散热,来达到各部分最优化散热,实现提升硬盘、主板和电源的散热效果,避免产生宕机现象。
本发明实施例通过AI计算板卡3通过PCIE转接排线7和所述服务器主板2电连接,并且设置联通第一区域101和第三区域103的散热通道5011,解决服务器硬件资源浪费或系统算力不足和服务器散热不足的问题,实现多个AI计算板卡3能够重叠横置于服务器的狭小空间内,且散热通道5011在机箱内密集板卡之间形成良好的散热通道,保证了机箱1的始终处于工作温度内运行的效果。一个机箱1内集成了图像处理6和AI计算板卡3,本发明实施例的服务器可以构成最小图像特征处理中心,针对特定区域如小区,进行图像特征算力中心,实时解析监控录像每帧画面的图像特征对视频进行特征打标和压缩存储。
替代实施例中,AI计算服务器还包括设置在第一区域101的电源模块8,所述电源模块8一端固定在机箱1的入风口,电源模块8另一端的出风口朝向所述第一散热装置5。
进一步包括安装在所述服务器主板1的处理器9和存储器10。
本实施例,处理器9可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,处理器9是服务器的控制中心,利用各种接口和线路连接整个计算机装置的各个部分。
存储器10可用于存储服务器程序和/或模块,处理器8通过运行或执行存储在存储器9内的服务器程序和/或模块,以及调用存储在存储器9内的数据,实现服务器装置的各种功能。存储器10可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器10可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
进一步包括和所述处理器9连接的第二散热装置。
本实施例,电源模块8设置在第一区域101,电源模块8的进风口位于服务器机箱后端侧壁的下方部位的中心位置。设置在中心位置,这样进风口进的风也处于电源的中心位置,另一端的出风口朝向第一散热装置5,通过第一散热装置5的散热通道5011和内部的散热风扇的通风,能够全达到全面均衡散热的效果,散热效果进一步提升。
第二散热装置还与处理器9连接,能对处理器9进行单独散热,进行效率极高的有效散热,避免产生宕机现象。
进一步散热器支架501还包括第一排线孔或/和第二排线孔,所述第一排线孔用于穿设PCIE转接排线7,所述第二排线孔用于穿设数据排线。
实施例二
实施例二在实施例一的基础上,对部分结构做了进一步细化,具体如下:
如图2所示,所述AI计算板卡3为多个,所述多个AI计算板卡3层叠放置,每个AI计算板卡3的侧部和服务器侧壁固定。
所述AI计算板卡3包括转接板卡301和算力板卡302,所述转接板卡301包括M.2插座3011、桥接芯片3012和PCIE接口3013,所述桥接芯片3012包括第一接口和第二接口,所述第一接口连接所述M.2插座3011;所述第二接口连接所述PCIE接口3013。
所述算力板卡302为多个,所述多个算力板卡302并行连接至所述桥接芯片3012。
本实施例,M.2接口,是Intel推出的一种替代MSATA新的接口规范。M.2接口分两种类型,分别支持SATA通道与NVME通道,其中SATA3.0只有6G带宽,而后者是走PCI-E通道,能提供高达32G的带宽,NVME作为新一代存储规范,由于走PCI-E通道带宽充足,可提升空间极大,传输速度更快。因此,本实施例通过桥接芯片3012将PCIE接口3013与M.2插座3011连接起来,提高数据传输速率。
与桥接芯片3012的第二接口相连接的PCIE接口3013接收主机CPU发送的数据,并将CPU发送的数据通过与桥接芯片3012的第二接口相连接的PCIE接口3013和到与桥接芯片3012的第一接口相连接的M.2插座3011,发送到算力板卡302进行数据处理,并接收由算力板卡302返回的处理结果数据。AI计算板卡3的侧部和服务器侧壁固定并层叠放置。
进一步地,算力板卡302为多个,多个算力板卡302并行连接至桥接芯片3012。当安装有多个算力板卡302时,AI计算服务器可以形成关于人工智能计算的资源池。需要说明的是,算力板卡302能够以M.2接口的插拔方式安装在AI计算服务器上。这样,AI计算服务器可以根据需要调节算力板卡302的安装数量。这里,AI计算服务器通过M.2接口的插拔方式安装算力板卡302,能够方便地调节AI计算板卡3的资源池的规模。
进一步地,为提高在一个AI计算服务器内的主板算力,AI计算板卡3可为多个,多个计算板卡层叠放置,每个计算板卡的侧部固定在服务器的侧壁。
实施例二在上述技术方案的基础上进一步完善了AI计算板卡3的功能,由于服务器的CPU通常具备标准PCIE接口,通过转接板卡301将M.2接口转换成PCIE接口,AI计算服务器通过M.2接口的插拔方式安装算力板卡302,能够方便地调节AI计算板卡3的资源池的规模。
实施例三
实施例三在实施例二的基础上,对AI计算板卡3做了进一步细化,具体如下:
如图3所示,所述算力板卡302包括M.2插头3021和AI芯片3022,所述AI芯片3022包括和所述M.2插头3021连接的数据接口,所述M.2插头3021和所述M.2插座3011可拆卸式连接。
其中,所述桥接芯片3012通过PCIE接口3013从外部设备获取第一数据并传输至所述AI芯片3022进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述桥接芯片3012将从外部设备获取多个第二数据,将所述多个第二数据并行传输至多个AI芯片3022进行计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果。
所述算力板卡302进一步包括控制芯片3023,每个算力板卡302包括的AI芯片3022为多个,所述多个AI芯片3022通过所述控制芯片3023连接至所述M.2插头3021。
每个算力板卡302包括的AI芯片3022为多个,所述多个AI芯片3022并行连接至所述控制芯片3023。
本实施例,算力板卡302包括多个AI芯片3022,由于AI芯片3022与控制芯片3023之间有大量的数据交换,所以采用特殊的数据接口,本发明实施例采用FIP接口,多个AI芯片3022通过控制芯片3023连接至M.2插头3021。多个AI芯片3022通过FIP接口与控制芯片3023并行连接。
与桥接芯片3012的第二接口相连接的PCIE接口3013接收主机CPU发送的数据,并将CPU发送的数据通过与桥接芯片3012的第一接口相连接的M.2插座3011,发送到与M.2插头3021经由数据接口连接的AI芯片3022中,由AI芯片3022处理数据,并按照原本的数据传输路线向CPU返回AI芯片3022的预算结果数据。
桥接芯片3012通过PCIE接口3013从外部设备获取第一数据并通过M.2插座3011传输至所述AI芯片3022进行计算。第一数据为预设事件的特征数据,控制芯片3023取出一个尚未处理的列,对之进行特征列检查,识别其中特征数据类型的标记,AI芯片3022根据特征工程知识库找到其对应的特征处理算法,采用对应的算法对该列进行处理。优化AI运算可以是减少调用次数和减少计算数据量,本发明实施例还可以是控制芯片3023将一个完整的第一数据拆分成多个第二数据,各第二数据之间有数据依赖关系,且每个第二数据的结果都可以设置保存点,同时,每个第二数据处理都可以单独重启,每个第二数据可以存在同一计算节点上,由AI芯片3022进行处理,尽可能分布式并行计算,提高执行的并发度。在处理完成后,控制芯片3023将多个第二数据的AI判断结果合并成预设事件的AI判断结果。
实施例三在上述技术方案的基础上进一步完善了算力板卡302的功能,AI芯片3022与控制芯片3023之间有大量的数据交换,需要采用特殊的数据接口,通过控制芯片3023将FIP接口转换成M.2接口,实现算力板卡302算力的可调制。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (8)

1.一种AI计算服务器,其特征在于,包括:
机箱,所述机箱包括依序设置的第一区域、第二区域和第三区域,各区域之间通过支架进行分隔;
设置在所述第一区域的服务器主板和图像处理板卡,所述图像处理板卡,和所述服务器主板的显卡接口连接;
设置在第三区域的AI计算板卡,所述AI计算板卡为多个,通过PCIE转接排线和所述服务器主板电连接,所述多个AI计算板卡层叠放置,每个AI计算板卡的侧部和服务器侧壁固定;
所述AI计算板卡包括转接板卡和算力板卡:
所述转接板卡包括M.2插座、桥接芯片和PCIE接口,所述桥接芯片包括第一接口和第二接口,所述第一接口连接所述M.2插座;所述第二接口连接所述PCIE接口;
所述算力板卡包括M.2插头和AI芯片,所述AI芯片包括和所述M.2插头连接的数据接口,所述M.2插头和所述M.2插座可拆卸式连接;
其中,所述桥接芯片通过PCIE接口从外部设备获取第一数据并传输至所述AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备;或者所述桥接芯片将从外部设备获取多个第二数据,将所述多个第二数据并行传输至多个AI芯片进行计算,然后将基于第一数据的计算结果传输至外部设备,所述第一数据为预设事件的特征数据,所述计算结果为预设事件的AI判断结果;
设置在第三区域的硬盘阵列,所述硬盘阵列通过数据排线和服务器主板电连接;
设置在第二区域的第一散热装置,所述第一散热装置包括间隔第一区域和第三区域的散热器支架,散热器支架包括联通所述第一区域和第三区域的散热通道,所述第一散热装置还包括散热风扇,所述散热风扇固定在所述散热通道内。
2.根据权利要求1所述的AI计算服务器,其特征在于,还包括设置在第一区域的电源模块,所述电源模块一端固定在机箱的入风口,电源模块另一端的出风口朝向所述第一散热装置。
3.根据权利要求1所述的AI计算服务器,其特征在于,进一步包括安装在所述服务器主板的处理器和存储器。
4.根据权利要求3所述的AI计算服务器,其特征在于,进一步包括和所述处理器连接的第二散热装置。
5.根据权利要求1所述的AI计算服务器,其特征在于,所述算力板卡进一步包括控制芯片,每个算力板卡包括的AI芯片为多个,所述多个AI芯片通过所述控制芯片连接至所述M.2插头。
6.根据权利要求5所述的AI计算服务器,其特征在于,所述算力板卡为多个,所述多个算力板卡并行连接至所述桥接芯片。
7.根据权利要求6所述的AI计算服务器,其特征在于,每个算力板卡包括的AI芯片为多个,所述多个AI芯片串行连接至所述桥接芯片。
8.根据权利要求1所述的AI计算服务器,其特征在于,所述散热器支架还包括第一排线孔或/和第二排线孔,所述第一排线孔用于穿设PCIE转接排线,所述第二排线孔用于穿设数据排线。
CN201910492833.7A 2019-06-06 2019-06-06 一种ai计算服务器 Active CN110134205B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910492833.7A CN110134205B (zh) 2019-06-06 2019-06-06 一种ai计算服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910492833.7A CN110134205B (zh) 2019-06-06 2019-06-06 一种ai计算服务器

Publications (2)

Publication Number Publication Date
CN110134205A CN110134205A (zh) 2019-08-16
CN110134205B true CN110134205B (zh) 2024-03-29

Family

ID=67580482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910492833.7A Active CN110134205B (zh) 2019-06-06 2019-06-06 一种ai计算服务器

Country Status (1)

Country Link
CN (1) CN110134205B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110488938A (zh) * 2019-08-26 2019-11-22 银河水滴科技(北京)有限公司 抓拍阵列服务器及其系统
CN111182239B (zh) * 2020-01-12 2021-07-06 苏州浪潮智能科技有限公司 一种ai视频处理方法与装置
CN113126704B (zh) * 2020-01-15 2024-04-02 阿里巴巴集团控股有限公司 应用于计算设备的主板、计算设备以及数据中心机房
CN113609063A (zh) * 2021-07-13 2021-11-05 深圳市国鑫恒运信息安全有限公司 一种能够实现高效散热的服务器
CN114637379A (zh) * 2022-03-24 2022-06-17 深圳华大智造科技股份有限公司 生物信息分析装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105183103A (zh) * 2015-08-31 2015-12-23 浪潮(北京)电子信息产业有限公司 一种服务器机箱
CN206594594U (zh) * 2016-11-18 2017-10-27 国源君安(北京)科技有限公司 一种多板卡并行运算设备
CN108304341A (zh) * 2018-03-13 2018-07-20 算丰科技(北京)有限公司 Ai芯片高速传输架构、ai运算板卡及服务器
CN108323114A (zh) * 2018-02-14 2018-07-24 北京比特大陆科技有限公司 具有对称散热结构的电路板及计算设备
CN108646890A (zh) * 2018-05-31 2018-10-12 北京比特大陆科技有限公司 一种散热装置、计算设备及挖矿机
CN210534653U (zh) * 2019-06-06 2020-05-15 深圳云朵数据科技有限公司 一种ai计算服务器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101644944A (zh) * 2008-08-08 2010-02-10 英业达股份有限公司 计算机
CN102346520B (zh) * 2010-07-27 2013-02-13 英业达股份有限公司 一种服务器系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105183103A (zh) * 2015-08-31 2015-12-23 浪潮(北京)电子信息产业有限公司 一种服务器机箱
CN206594594U (zh) * 2016-11-18 2017-10-27 国源君安(北京)科技有限公司 一种多板卡并行运算设备
CN108323114A (zh) * 2018-02-14 2018-07-24 北京比特大陆科技有限公司 具有对称散热结构的电路板及计算设备
CN108304341A (zh) * 2018-03-13 2018-07-20 算丰科技(北京)有限公司 Ai芯片高速传输架构、ai运算板卡及服务器
CN108646890A (zh) * 2018-05-31 2018-10-12 北京比特大陆科技有限公司 一种散热装置、计算设备及挖矿机
CN210534653U (zh) * 2019-06-06 2020-05-15 深圳云朵数据科技有限公司 一种ai计算服务器

Also Published As

Publication number Publication date
CN110134205A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110134205B (zh) 一种ai计算服务器
CN109416564B (zh) 用于数据中心的存储托架
US10021806B2 (en) System and method for flexible storage and networking provisioning in large scalable processor installations
CN106126448B (zh) 存储系统
US9402328B2 (en) Server
US8880817B2 (en) Storage subsystem backplane management system
US8599564B2 (en) Server architecture
TWI591485B (zh) 用於減少多節點機箱系統之管理埠之電腦可讀取儲存裝置、系統及方法
US11314666B2 (en) Systems and methods for optimizing clock distribution in NVMe storage enclosures
US10856441B1 (en) System and method for bi-side heating vapor chamber structure in an information handling system
US10554588B2 (en) Activating and deactivation functional units of a line card
CN114747190B (zh) 一种计算机实现的方法、系统和存储介质
CN110069111A (zh) 一种ai计算服务器
CN110134206B (zh) 一种计算板卡
CN210534653U (zh) 一种ai计算服务器
CN209911891U (zh) 一种ai计算服务器
US10534734B1 (en) Processor/endpoint communication coupling configuration system
CN209879377U (zh) 一种计算板卡
CN209879419U (zh) 一种计算板卡
CN115639880A (zh) 服务器
CN103677152A (zh) 存储服务器及其机架系统
CN105824375A (zh) 一种服务器
US9588926B2 (en) Input/output swtiching module interface identification in a multi-server chassis
US11757220B2 (en) Paddle card for crosstalk cancellation in high-speed signaling
US20090296359A1 (en) Optimized Two-Socket/Four-Socket Server Architecture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant