CN104272889A - 利用高效冷却装置操作数据中心的方法 - Google Patents

利用高效冷却装置操作数据中心的方法 Download PDF

Info

Publication number
CN104272889A
CN104272889A CN201380024678.7A CN201380024678A CN104272889A CN 104272889 A CN104272889 A CN 104272889A CN 201380024678 A CN201380024678 A CN 201380024678A CN 104272889 A CN104272889 A CN 104272889A
Authority
CN
China
Prior art keywords
frame
heat
cooling
exchange device
temperature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380024678.7A
Other languages
English (en)
Other versions
CN104272889B (zh
Inventor
福尔克尔·林登施特鲁特
霍斯特·施特克尔
亚历山大·豪泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ECUBE COMPUTING GmbH
Original Assignee
ECUBE COMPUTING GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47257356&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN104272889(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ECUBE COMPUTING GmbH filed Critical ECUBE COMPUTING GmbH
Publication of CN104272889A publication Critical patent/CN104272889A/zh
Application granted granted Critical
Publication of CN104272889B publication Critical patent/CN104272889B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20718Forced ventilation of a gaseous coolant
    • H05K7/20745Forced ventilation of a gaseous coolant within rooms for removing heat from cabinets, e.g. by air conditioning device
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/208Liquid cooling with phase change
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20718Forced ventilation of a gaseous coolant
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20763Liquid cooling without phase change
    • H05K7/20781Liquid cooling without phase change within cabinets for removing heat from server blades
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20836Thermal management, e.g. server temperature control

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Thermal Sciences (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Cooling Or The Like Of Electrical Apparatus (AREA)
  • Air Conditioning Control Device (AREA)
  • Structure Of Telephone Exchanges (AREA)

Abstract

本发明涉及一种用于操作数据中心的方法,所述数据中心适于容纳被设计成为IT设备提供存储空间的多个机架。所述数据中心装备有冷却装置以便于提供由所述IT设备所产生的热的消散。根据本发明操作的数据中心具有至多1.3优选至多1.2更优选至多1.15特别地至多1.1的功率利用效率(PUE)。

Description

利用高效冷却装置操作数据中心的方法
本发明涉及一种用于操作数据中心的方法,所述数据中心适于容纳被设计成为IT设备提供存储空间的多个机架。数据中心装备有冷却装置以便于提供由IT设备产生的热的消散。
在现有技术中,存在用于容纳多个机架的各种数据建筑结构,其中的每一个都包括用于IT设备的存储空间。
常规数据中心最典型地是建筑物,其包括用于计算机基础设施的假底,所述计算机基础设施典型地容纳在19″机架外壳中。在常规数据中心中,冷却仍然由冷空气实现,所述冷空气被泵送入在机架前面的适当位置处具有孔的假底。以这种方式在计算机机架的进气口处供应冷空气。这个设计典型地需要引导气流的概念,从而将冷空气馈送入机架并且从IT设备去除热。
WO 2010/000440在图1中公开了现有常规数据中心建筑物的典型状态。这个常规设计由于以下原因有些不利:单一机架必须被设计为封闭机架,并且必须测量和控制通过相应机架的气流以便于避免从冷通道泵送不必要数量的冷空气。存在提供气流到冷通道中的调节使得提供气流的风扇以最低可能的功率操作的各种概念。由在机架内部的设备产生的热空气被馈送回到位于数据中心建筑物里别的地方的热交换器。被加热空气要么再次冷却,要么使用新鲜的空气以便于提供冷空气流。
诸如WO 2010/000440的现有技术概述了针对高密度数据中心的水冷机架的使用。在现有技术中,电子设备的热通过如WO 2010/000440中公开的或安装在机架中或在通道中的热交换器传送到冷却水。其它现有技术使用安装在机架中的电子设备利用水的直接冷却。
除现有常规数据中心建筑物的典型状态之外,WO 2010/000440公开了一种用于将液体冷却介质用于由IT设备产生的热的消散的多层计算机数据中心的新的节能架构。由WO 2010/000440所实现的所谓的绿色IT概念允许用于冷却的能量消耗的降低。常规数据中心常常需要它们的能量消耗的多达50%和甚至更多用于冷却。WO 2010/000440的新颖冷却概念使得能实现需要它们的能量的不到10%(部分PUE<1.1)用于冷却的数据中心。
WO 2010/000440的固定多层计算机数据中心成为用于以后的绿色IT概念随着向节能数据中心的不断发展而遵循的一种基准。
然而,如WO 2010/000440中公开的固定计算机数据中心对于这样的中心需要不断要求,并且因此被认为是长期投资。此外,移动数据中心变得越来越有吸引力,因为这样的移动数据中心容器能够容易地安装在近邻域中并且包含它们自己的基础设施,使得它们能够被“插入”在固定计算机数据中心是尺寸不足的和/或存在仅暂时需要的地方。
数据中心(无论它们是移动的还是固定的)的设计经受不断改进以优化用于使IT设备冷却的费用。除设计之外,用于操作这样的数据中心的方法允许进一步改进以针对冷却实现优化的能量消耗。
本发明在于提供用于操作固定或移动数据中心单元的这样的方法。
因此,本发明涉及用于操作数据中心的方法,包括:
(i)用于容纳多个机架(202)的建筑物,每个机架是容纳IT设备的开放式机架,
(ii)机架(202)是容纳IT设备(200)的开放式机架,
(iii)机架(202)包括适于将由IT设备产生的热传送到流体冷却剂的热交换装置(206,207),所述热交换装置是机架的元件或附连到机架的元件,
(iv)至少一个第一冷却回路(203,204),所述冷却回路是封闭冷却回路,其适于给机架(202)的热交换装置(206,207)供应流体冷却剂,并且被进一步适于通过冷却回路的回流(reflux)输送被加热冷却剂远离机架(202)的热交换装置(206,207),
(v)所述第一冷却回路(203,204)被连接到提供冷却的源,所述源位于容纳多个机架的空间外部,
(vi)IT设备(200)位于具有活动装置(优选风扇)以用于使IT设备的各部分(优选CPU和/或GPU和/或存储硬件)冷却的相应机架中,所述活动装置创造在机架中向作为机架的元件或附连到机架的元件的热交换装置(206,207)的气流(205),
(vii)除了包含在前述IT设备内的活动装置,机架(202)没有用于创造在机架中向作为机架的元件或附连到机架的元件的热交换装置的气流的其它活动装置,具体地是风扇,
(viii)除了包含在前述IT设备(200)内的活动装置,用于容纳多个机架(202)的所述建筑物不包括用于创造引导气流的其它活动装置,
(ix)至少一个电功率输入端,
(x)用于从功率输入端向单独机架分配电功率的至少一个装置,允许在每个机架中的冗余功率供应,
包括如下措施:
(a)在第一冷却回路内从提供冷却的源向机架(202)的热交换装置(206,207)提供流体冷却剂,进入热交换装置(206,207)的所述流体冷却剂输入流具有1K至5K优选1K至3K更优选1K至2K的温度,低于退出机架(202)的热交换装置(206,207)的流体冷却剂回流的温度,
(b)控制在第一冷却回路(205)内的流体冷却剂流,所述第一冷却回路(205)适于供应机架(202)的热交换装置(206,207)以维持进入机架(202)的热交换装置(206,207)的流体冷却剂(输入流)的温度具有1K至5K优选1K至3K更优选1K至2K的温度,低于退出机架(202)的热交换装置(206,207)的流体冷却剂回流的温度,
(c)向提供冷却的源输送离开机架(202)的热交换装置(206,207)的被加热流体冷却剂(回流),所述源位于容纳多个机架的空间外部,以从被加热流体冷却剂去除热至1K至5K优选1K至3K更优选1K至2K的温度,低于流体冷却剂回流的温度并且将流体冷却剂返回到至少一个第一冷却回路。
本发明提供了用于操作数据中心从而避免跨越所有机架引导冷却空气以在数据中心内创造冷通道的必要性的方法。唯一的活动装置典型地是包含在前述IT设备内的风扇,其创造在单独机架中向相应机架的热交换装置的气流(205)。诸如IT设备中的内置风扇的这些活动装置典型地不超过所安装和操作的IT设备的电功率的10%。
在仍然使用本发明的同时,例如通过安装除包含在前述IT设备内的那些以外的风扇,可以使用不有助于机架中的气流(205)的非实质性活动装置。这样附加的非实质性活动装置的这样的非实质性贡献提供了由包含在前述IT设备内的活动装置所产生的气流(205)的至多10%。
本发明了提供用于操作包含容纳IT设备的机架的数据中心的方法。这样的IT设备包括连同IT设备一起使用的所有电子设备,其在操作期间产生热。
本发明提供其中至少一个冷却回路被操作从而将流体冷却剂供应到数据中心中以用于冷却的方法。在本发明中,进入数据中心的流体冷却剂的温度和进入热交换装置(206,207)的流体冷却剂的温度几乎相等,这意味着进入数据中心的流体冷却剂的温度低于进入热交换装置(206,207)的流体冷却剂的温度至多0.2K。
在优选实施例中,本发明提供用于操作数据中心的方法,在所述数据中心中在机架中的IT设备的功率密度是每机架至少5kW(电的),最优选每机架至少8kW(电的),最优选地每机架至少10kW(电的)。对于每机架功率密度的上限主要限于在机架内部可用的空间上。因此上限本身不受限制并且典型地在机架中能够达到每高度单元多达1kW或1.5kW。对于典型机架,每机架功率密度总计多达每42高度单元机架42kW(电的)。
本方法也避免了在该上下文中所用的假底的必要性。此外,本发明目的在于优化能量要求和费用,加上目的在于更密集地布置计算机机架以便于最小化网络电缆的所需长度并且以便于提高系统的通信能力。
用于操作数据中心的本方法允许数据中心具有包括更大可伸缩的容量和增加的容积密度的紧凑结构。用于操作数据中心的本方法能够用于二维布置的数据中心,其中机架位于一个水平面上,或者用于三维布置的数据中心,其中机架位于在数据中心内的一个以上的水平面上。
用于操作数据中心的本方法的有益效果随着安装在机架内的IT设备的功率密度而增加。对于IT设备(诸如计算机硬件)的这样增加的封装或存储密度提供热消散,所述热消散甚至能够超过每m31kW以上优选每m31.5kW以上更优选每m32kW以上更优选每m33kW以上的容积热消散速率,这不能够使用作为现今现有技术水平系统的常规空气冷却系统来实现。前述容积热消散速率基于具有2.5m天花板高度的数据中心和在数据中心中所用的净面积。数据中心的净面积是排除用于技术建筑基础设施的任何附加的空间、被容纳IT设备的机架占用的面积,所述技术建筑基础设施诸如变压器、发电机、电池室、灭火系统、存储区域等等。在本发明的优选实施例中机架是120cm深和70cm宽。机架以机架行之间的120cm的距离安装。因此在本发明的优选实施例中,机架消耗1.7m2的地板空间和4.2m3的净数据中心面积。例如具有60cm宽机架和更小距离的更靠近配置是可预期的。
因此连同本发明一起使用的数据中心的净面积是用来容纳IT设备机架的表面积。它是数据中心的总表面积减去用于技术基础设施(电源、冷却、UPS、电池、发电机、消防管理及其它)、用于访问基础设施(非安全区和安全区)的表面积、用于IT设备以及IT控制室的准备和存储表面积以及用于数据中心的管理所需的其它表面积。
由于实用原因,常规空气冷却系统中的容积热消散速率典型地不超过每机架6kW,其使用前述假设对应于约2.5至3kW/m2和约0.7至0.9kW/m3
从其中得到的每机架和其它单元的所有功率密度指的是在相应机架中安装和操作的IT设备的电功率。
如上面所说明的,用于操作数据中心的本方法的有益效果随着在机架内安装和操作的IT设备的功率密度而增加。具体地,对于具有其中使用容纳机架的数据中心/数据中心室的前述净面积安装的和操作IT设备创造对应于至少约5kW/m2、优选地对应于至少约10kW/m2、最优选对应于至少约20kW/m2的容积热消散速率的机架的数据中心,提供了极其高效的冷却。
用于操作数据中心的本方法实现了具有被动热交换器的开放式机架,所述热交换装置是机架的元件或附连到机架的元件,其被构建为使得安装在机架内部的IT设备的大部分被加热空气(在最佳模式下整个被加热空气)被冷却回到设定室温。优选地,热交换器位于机架的背面上。热交换器的实际位置通过由IT设备的活动装置产生的气流(205)的方向来确定。在本发明的优选实施例中,向热交换器的表面产生的气流的入射角是至多75°,更优选至少60°,更优选至多45°,更优选地至少20°,最优选在0°与20°之间。
作为机架的元件或附连到机架优选地位于机架的背面处的元件的被动热交换器的设计也是重要的,因为如果它们向自然气流产生非常高的背压,则总体冷却效率降低。在机架内部避免这样的背压具有多样优点。首先异构设备能够安装在机架内部,因为低背压不能够对其它IT设备的气流有负面影响。只要在机架内部存在较小背压,例如安装在低功率服务器下面的高功率服务器将不会将它的热排气推回到低功率服务器中。第二优点是对通过机架的电缆馈电的密封存在较少要求。普通挖空或电缆开口需要自密封镶嵌件,诸如例如密封件。
在本发明中使用这样的自密封镶嵌件是可能的但不是强制的。由于现有技术水平的空气冷却的避免和在数据中心中的引导气流是不需要的,所以热空气的潜在泄漏速率在本发明中是非常有限的。
容纳多个机架的空间的室温对应于作为机架的元件或附连到机架的元件的被动热交换器的冷排气并且因此被连接到流体冷却剂温度。优选地,容纳多个机架的空间的室温是所述第一冷却回路的流体冷却剂的回流的温度的约+2K,更优选+1K,更优选+0.5K,最优选约相同的。提供机架的高度高效的冷却的本方法允许更高室温,因为在数据中心中任何地方不存在热循环的风险。热空气的唯一区域在机架内部。
能够经由冷却的前述源实现背面冷却,所述前述源包括但不限于外部冷水源,诸如地下水或表面水,基于蒸发原理操作的蒸发冷却,包括具有或没有开放式冷却塔、混合冷却器、干式冷却器等等的蒸发冷却塔,以及任何其它现有技术水平冷却技术,包括压缩深冷器。
最高冷却和成本效率通过使用逆流、间接通风、湿式冷却塔来实现。这样的冷却塔的冷却原理通过使水蒸发来使用水的蒸发热。例如为了使1MW数据中心冷却,每小时蒸发需要约多达1.7m3的流体冷却剂,诸如水。除风扇外冷却塔是完全被动的,所述风扇典型地只有当外部气温超过15℃才被操作。使用开放式湿式冷却器可实现的最低温度对应于湿球温度。它通过用湿布覆盖温度计在心理度量上测量。蒸发冷却器的使用确保了最冷水供应温度高于露点。因此在数据中心内部任何地方不存在冷凝的风险。水供应不必被隔离。
本发明的优选实施例的操作方法使用水作为冷流体冷却剂,其中用于经由至少一个冷却回路冷却的进入数据中心的流体冷却剂具有几乎等于进入热交换装置(206,207)的温度的温度。在这个上下文中,几乎相等意味着进入数据中心的流体冷却剂的温度低于进入热交换装置(206,207)的流体冷却剂的温度至多0.2K。
在优选实施例中,本方法以在机架中安装和操作的依赖于特定功率密度的第一冷却回路的流体冷却剂的回流的温度进行操作。对于多达每机架10kW(电的)的功率密度,第一冷却回路的流体冷却剂的回流的温度是至多3K,优选至少2K,最优选至多1K,高于由进入数据中心的冷却的源所供应的温度,并且对于每机架至少10kW(电的)的功率密度,第一冷却回路的流体冷却剂的回流是至多4K,优选至多3K,高于由冷却的源所供应的温度。
在第一冷却回路的流体冷却剂的回流与流体冷却剂输入流之间的前述温度差对于降低的流体冷却剂流速率来说还可能是较高的。从而当冷却的背面冷却系统/源在无额外费用下产生/提供充足的低温度/冷流体冷却剂时,通过所需要的操作冷却回路的泵的功率需求在更冷季节或更冷外部温度(通常在低于17℃的外部温度下)的周期期间降低。
典型地在本方法中所用的机架是普通19″机架外壳。在优选实施例中,机架是特别节省空间的高机架。机架被放置在建筑物的地板上并且不必在假底系统上。导管和/或电缆托架安装在机架之上。在用于现有数据中心的改造的现有假底情况下,这样的假底能够被等同地用来通至导管。热交换器门能够从下面和上面连接到冷却回路。在诸如数据中心为移动数据中心的另一个优选实施例中,机架经由减震装置连接到周围外壳,从而在运输和组装期间保护机架和任何关联的/连接的装置(例如热交换装置和冷却管)免于振动和冲击。
关于本机架的术语“开放式”意味着机架的前面是开放的并且允许在机架内部的IT设备在没有流阻的情况下吸入室内空气。同样有可能具有开放式前门,例如格子门,其允许空气在没有基本流阻的情况下流通。这样的格子门是优选实施例,因为它允许进气的温度的测量。在这个优选实施例中,执行两个测量,典型地一个在格子门的三分之一高度处,而第二个在格子门的约三分之二高度处。在本方法中操作的开放式机架概念允许室内空气的吸入和吸收由IT设备所产生的热的这样的空气的排气。在优选实施例中,进入开放式机架的空气和向热交换装置(206,207)退出IT设备的空气被在机架内部的解耦装置分离,从而将向热交换装置(206,207)退出IT设备的空气与进入开放式机架的空气分离以确保无被加热空气渗透入IT设备。
基于机架的热交换装置的另一优点是机架本身不必须保持封闭并且不必再控制进出机架的气流。作为另一个有益效果,在数据中心内部,无需附加的空气调节器,因为冷却功能可以由机架的热交换单元完全接管。
在本发明中所用的机架不具有任何其它活动装置,特别是风扇,以用于创造在机架中向作为机架的元件或附连到机架的元件的热交换装置的气流。仅位于相应机架中的IT设备具有活动装置,优选风扇,以用于使IT设备的各部分(优选CPU和/或GPU和/或存储硬件)冷却,并且仅所述活动装置意指创造在机架中向作为机架的元件或附连到机架的元件的热交换装置的气流的IT设备的冷却部分。
用于操作数据中心的本方法不需要具有假底和冷通道布置或设计的数据中心。
最优选的是具有能够引起仅非常低的空气背压的约50至120mm的深度的被动热交换器。因此,离开机架中的IT设备的热空气能够全部独立通过热交换器。
如已经提到的,现代计算机中的功率密度已达到每个安装在机架中的高度单元1kW和甚至更多。安装在机架中的IT设备的主动冷却装置(诸如用于使IT设备的各部分(优选CPU和/或GPU和/或存储硬件)冷却的风扇)创造适当的气流速率以从IT设备去除全部热。气流速率取决于进入机架的空气与离开IT设备的空气之间的温度差ΔT。典型温度差是ΔT=5至30K。这个温度差需要100至600m3/(h*kW)的空气容积流动,其对应于至少0.5m/s,优选至少0.8m/s,具体为至少1.1m/s。
现有技术的IT设备被设计成在10K左右的冷空气与热空气之间的温度差下操作。因此,在42高度单元19英寸机架内部的气流速率是由电子设备产生的功率和由该设备产生的平均气温差的线性函数。因此,以10K差进行操作并且使安装的IT设备对应于20kW电功率,对于这样的42高度单元19英寸机架对应于2.1m/s的气流速率的6000m3/h的空气容积流动是适合的。在本方法中的这样的气流速率由安装在机架中的每高度单元IT设备的主动冷却装置单独创造,所述主动冷却装置诸如用于使IT设备的各部分(优选CPU和/或GPU和/或存储硬件)冷却的风扇。
用于操作数据中心的本方法允许由安装在机架内部的IT设备产生的热在没有任何附加的活动元件的情况下向流体冷却剂传送。
在机架不完全装备有IT设备的情况下,关闭在机架内部的大量开口槽(例如大于3个高度单元)以便于避免热空气向其前侧离开机架是有益的。用于敷设电缆的小开口未呈现由于机架内部的低压而导致的问题。
用于操作数据中心的直接方法优选地允许数据中心的高效冷却,其中在机架中的IT设备的功率密度是每机架至少5kW(电的),更优选每机架至少8kW(电的),最优选每机架至少10kW(电的)。每机架功率密度的上限主要在可用存储空间上是有限的。因此上限在机架中典型地达到每高度单元1kW,从而典型地总计多达每机架42kW(电的)。
在本发明中所用的机架典型地具有1.2m×0.7m×2m的尺寸,并且优选地从前到后布置以得到最高效率并且背对背布置以得到最高冗余。
虽然大多数IT设备(诸如服务器)实现从前到后气流,但是存在这个规则的例外。例如,思科Nexus交换机系列在机箱的前面和右侧处接收冷空气同时热空气在系统的左侧和背面排出。这些交换机也需要1m宽机架。在本发明的优选实施例中这样的气流要求通过使用1m宽机架来适应,所述1m宽机架密封机架的左前面和右后面。类似配置对于将它们的机箱侧面用于进气的IT设备来说是可预期的。机架的侧面开口不必覆盖机架的全高度。特殊的交换机隔室是可预期的。
并且在机架的背面的水平气流分离是可预期的,例如以便于允许潜在烟雾的源的非常特定确定并且用于选择性地切断适当的服务器。
许多被动金属片空气导向件在本发明的优选实施例中是可预期的以便于引导冷空气或热空气并且以便于潜在地使在机架内部的区域分离。这样的空气导向件是完全被动的并且并不不利地影响系统的冷却效率。应该注意的是,这样的空气导向件在本发明的优选实施例中通常是不需要的并且被仅仅用来将现有装置装配到机架中。
用于操作数据中心的本方法实现了具有作为机架的元件或附连到机架的元件优选地作为后门的被动热交换器的开放式机架,所述被动热交换器被构建使得安装在机架内部的IT设备的大部分被加热空气(在最佳模式下整个被加热空气)被冷却回到设定室温。
单独的被动热交换器是机架的元件或附连到机架的元件,并且优选地位于单独机架的背面并且能够将由在机架内安装和操作的IT设备产生的整个热传送到流体冷却剂。
根据本发明的优选实施例,热交换器的能力由流体冷却剂的性质、冷却剂输入流以及冷却剂输入流与冷却剂输出流之间的温度差给出。在本方法中,所安装的所有热交换装置的总和的冷却能力对应于由在数据中心中安装和操作的IT设备产生的热。因此,本发明确保没有或没有实质性数量的由IT设备产生的热释放到典型地称为数据中心的容纳多个机架的空间。
本发明允许操作数据中心,在所述数据中心中,典型地从前面进入机架的空气和典型地通过热交换装置在背面离开机架的空气具有相同的或基本上相同的温度并且所产生的基本上所有热被热交换器和流体冷却剂去除。优选地,进入机架的空气的温度和典型地通过热交换装置在背面离开机架的空气的温度相差不到+2K,更优选+1K,更优选+0.5k,最优选的是约相同的。因此,没有热或没有实质性热释放到容纳数据中心的机架的空间/建筑物。
结果,提供机架的高度高效的冷却的本方法允许更高室温,因为在数据中心中任何地方不存在热循环的风险。热空气的唯一区域在机架内部。
本发明允许热交换装置直接地接收由机架内部的IT设备产生的热空气并且通过向流体冷却剂输送管系简单地输送热来将该热空气变换回直到期望的室温。以这种方式,能够避免热空气的任何路由或在数据中心内部创造任何气流。通过允许这个,热空气或被加热空气行进的距离能够降低至最小。这仅需要在机架内部特别是从IT设备向热交换装置运输被加热空气。以这种方式,能够防止任何难以控制的湍流气流。此外,本发明不需要冷空气的高吞吐量流动,并且问题和存在于这样的空气中的水分的任何冷凝有关。因此,任何空气除湿机的使用变得多余。
根据本发明的另一优选实施例,热交换装置不包括用于将热空气从IT设备导向热交换装置的表面或通过热交换装置的任何活动装置,诸如风扇。从在特定机架内部的CPU和/或GPU冷却风扇获得的空气的相对低的且分层的空气流允许避免附加的风扇并且允许避免任何附加的风扇功率消耗。
用于操作数据中心的本方法使用具有低空气背压的被动热交换器。由热交换器产生的空气背压取决于气流速率。结合本方法所用的热交换器对于与多达0.5m/s对应的气流速率优选地具有最大10Pa的空气背压,对于与多达0.8m/s对应的气流速率更优选为最大16Pa,对于与多达1.1m/s对应的气流速率最优选为最大20Pa。
前述气流和空气背压与安装在机架中的IT设备一起很好地工作,所述机架通常在冷空气与热空气之间的温度差为10K左右内操作。
本方法使用流体冷却剂系统。特别对于用作流体冷却剂的水,数据中心的一个主要关注点是泄漏的可能性。
水溢出的风险和由溢出所引起的损坏量对应于水系统的压力。因此,本方法的另一个方面在于使用跨越热交换器具有低压降的热交换器。
用于操作数据中心的本方法使用跨越热交换器具有低压降的被动热交换器。
跨越热交换器的压降取决于流体冷却剂的容积流体流。因此,在本发明中,位于机架后部的被动热交换器对于3m3/h水的容积流动提供优选低于22kPa的压降,对于5m3/h水优选低于54kPa,对于10m3/h水最优选低于200kPa。
对于水以低于5m3/h的泵送速率操作,能够在为水的流体冷却剂的大气压力以下实现本方法。
用于操作数据中心的本方法需要控制在第一冷却回路(205)内的流体冷却剂流,所述第一冷却回路(205)适于供应机架(202)的热交换装置(206,207)以维持进入具有1K至5K优选1K至3K最优选1K至2K的温度的机架(202)的热交换装置(206,207)的流体冷却剂(输入流)的温度低于退出机架(202)的热交换装置(206,207)的流体冷却剂回流的温度。因此,用于流体冷却剂(诸如水)的流率优选地从针对1K的差而安装和操作的每小时且每kW 0.9m3起并且到针对5K的差而安装和操作的每小时且每kW 0.17m3
一个剩余关注点是由于热交换器的背压而由服务器的冷却风扇所引起的潜在功率增加。这通过打开和关闭机架的后门并且确定在机架内部的计算机的总的功率消耗来测试。机架中所有服务器的总功率消耗和给一个样品风扇的供应电流被测量。主要由于低背压,在当打开后门时所测量到的功率消耗方面不存在明显差异。
优选地,每个机架实现自主功率分配单元,所述自主功率分配单元向机架内部的所有电气组件供应功率并且监测功率消耗和电气属性,特别针对例如在科学应用中所用的高功率密度。这个功能性由嵌入式微控制器提供。它此外测量空气输入和输出以及冷却水温度。另外每个机架实现独立的烟雾检测器。在烟雾警报或过热情况下,服务器被配置成自动地关闭。在超过配置的阈值之后,PDU将最终切断功率。因为在冷却故障情况下高功率密度和对应的快速温度上升,每机架这样的安全措施是重要的。
机架的热交换装置被连接到冷却回路,所述冷却回路通过管道系统向热交换装置中的每一个供应流体冷却剂,优选液体冷却剂。
在本发明的优选实施例中,冷却回路包括管道系统以去除冷却剂。特别具有比空气大的热容量、诸如水和其它适合的冷却流体的液体冷却剂的使用由于许多原因是有利的。首先,可以被传送和运输的总热量与气体冷却剂相比大得多。其次,与气体冷却剂的湍流和层流动相比,有可能更容易地控制和监测冷却剂的流动和传输。
在本发明的另一实施例中,液体冷却剂的压力能够被设置为低于2bar,使得在泄漏的情况下发生液体的最小流体排出并且泄漏流体沿着冷却回路流动。在这样的实施例中,冷却回路可以具有窟窿/陷坑以收集任何这样的泄漏液体从而防止任何这样的泄漏液体与计算机硬件接触。管道系统布置在机架的后门后面,这由于细粒热交换器结构而提出了保护IT设备免于水溢出。在两种情况下管道系统中的任何泄漏能够通过监测管道系统中的压力来检测到并且设置警报从而允许这对这样的泄漏采取适当的措施,诸如例如泵的停止,以便于进一步降低压力并且以便于停止泄漏的连续水供应。
另外不需要管道系统的隔离,因为室温对应于冷回水温度,其比露点明显要高。
数据中心具有直接地或间接地连接到如之前所提到的第一冷却回路的提供冷却的至少一个源。
最典型地,提供冷却的源是以逆流、间接通风、湿式冷却塔操作的至少一个冷却塔,其中水从圆柱的顶部喷射并且通过一些水的蒸发冷却以及由此向下收集。为了避免第一冷却回路的污染,提供冷却的源能够通过第二冷却回路从提供冷却的源解耦。这样的解耦典型地由从第一冷却回路向第二冷却回路传送热的冗余热交换器来实现。
通过该实施方式,可能被空气微粒(诸如花粉)污染的被直接连接到冷却的源的第二冷却回路的任何污染与进入数据中心内部的第一冷却回路分离。用于泵送流体冷却剂的必要泵能够被放置在数据中心内部或在数据中心外部。
取决于环境气候,在一些地理区域中普通的水深冷器例如在冷/冰动期期间引起问题。在这样的情况下优选替代地使用所谓的混合冷却塔。最典型地,这样的混合冷却器是板式热交换器,通过其被加热冷却剂正流过并且被环境空气冷却。在美国专利No.7864530中示出了混合冷却器的一个示例。为了在夏天提高冷却容量,有可能向板式热交换器的表面喷射水并且使用这样的水的蒸发冷却。因为这些混合冷却塔包括热交换器,所以不需要另外的热交换器。然而,冷却水可能需要诸如乙二醇的添加剂以便于防止它冻结。
另外,提供冷却的源具有用于向冷却回路入口输送液体冷却剂的装置。这样的装置典型地是优选为柔性的由不同材料制成的导管,所述材料诸如钢、不锈钢和/或合成有机聚合物材料。
在本发明的另一实施例中,位于诸如容器的单元中的数据中心或该数据中心使用被预安装在支承框架中的机架来构建,所述支承框架优选地是标准尺寸框架。这在构建数据中心或移动数据中心时允许预安装/预组装。优选地这样的标准尺寸框架、单元或容器具有普通ISO容器的典型标准尺寸,所述普通ISO容器能够通过船、火车、卡车、半拖车卡车或飞机在长距离上高效地运输、装载和卸载、堆叠和运输。最优选的是20-ft(6.1m)、40-ft(12.2m)、45-ft(13.7m)、48-ft(14.6m)以及53-ft(16.2m)长单元/容器。宽度典型地是10ft(3.0m)至8ft(2.4m)并且高度典型地是9ft 6in(2.9m)。
用于操作数据中心的本方法从提供冷却的源向在第一冷却回路内的机架(202)的热交换装置(206,207)提供流体冷却剂,所述流体冷却剂输入流具有1K至5K优选1K至3K最优选1K至2K的温度,低于退出机架(202)的热交换装置(206,207)的流体冷却剂回流的温度。
优选地,进入热交换装置的流体冷却剂的温度被调整为不超过每机架10kW的每机架安装和操作每kW的0.1至0.5K,低于退出机架(202)的热交换装置(206,207)的流体冷却剂回流的温度。
优选地,进入所述热交换装置的流体冷却剂的温度被调整为每机架合计在10kW与25kW之间的每机架安装和操作每kW的0.1至0.2K,低于退出机架(202)的热交换装置(206,207)的流体冷却剂回流的温度。
优选地,进入热交换装置的流体冷却剂的温度被调整为每机架合计超过25kW的每机架安装和操作每kW的0.1至0.125K,低于退出机架(202)的热交换装置(206,207)的流体冷却剂回流的温度。
用于操作数据中心的本方法允许数据中心的高效冷却。例如,利用使用蒸发冷却的现有技术的背面冷却技术可实现的最冷温度是湿球温度,其在欧洲很难达到22℃。适当的湿球温度可在本地天气服务下得到。通常流体冷却剂特别是冷水供应比湿球温度高约2K,其是理论限制。在本发明的优选实施例中热交换器在辅助回路与第一回路之间添加另一2K。然而,应该注意的是,这个温度差仅是热交换器的尺寸的函数并且可以是成本优化的。例如,在第一冷却回路中+1K的温度差(热交换器出口与入口之间的差),其将例如对应于9m3/h作为流体冷却剂的水和在机架内部安装和操作的IT设备的10kW电功率,冷却系统的返回的最低流体冷却剂特别是冷水高于湿球温度5K。允许由于暖机架的辐射、暖空气泄漏而到室温的另一+1K差,室温比湿球温度要暖6K。这个限制能够甚至通过提高泵送速率而降低,但是以泵的更高功率要求为代价。然而,考虑例如在德国湿球温度在2007至2011年期间超过了20℃长达平均约140个小时。因此仅泵将必须在高泵送速率上操作的时间的一小部分将对总体功率预算仅产生小添加。在外部冷温度期间冷却系统被节流以便于使室温保持高于20℃。
应该注意的是,基本上所有商用计算机系统和网络组件被定额成根据ASHRAE TC 9.9(2011)和ETSI EN 300019-1-3;V2.3.2.(2009-07)以几乎恒定步态操作直到35℃。许多供应商已声明甚至向更高温度提高这个图形,因为所有冷却系统在效率上随着增加的室温而改进。
如果返回的流体冷却剂特别是冷水达到30℃,则它能够用来如果建筑物在没有任何热泵的情况下实现地板或墙壁加热则将建筑物加热。所需要的唯一附加功率是泵移动水通过在建筑物内部的加热支管并且潜在地向更高地板向上泵送它。在夏天地板加热能够被连接至冷水供应并且因此用于建筑物的非常高效的冷却,然而对于冷却塔有附加的冷却要求。
最典型地,大部分或甚至所有机架被个别地连接到冷却回路,所述冷却回路提供用于从计算机硬件去除和排出热的高效仪器。
在冷却回路与适合于去除由计算机硬件产生的整个热的特定于机架的热交换器连接的情况下个别地将待冷却的每个机架耦合到冷却回路提供了附加的优点,即有可能针对在数据中心的结构内的每个单独机架个别地且分别地控制并且监测冷却功率和热交换。在机架内排他地使热空气冷却使得有可能在无需气流设计(诸如冷通道或热通道)的情况下安装任何机架组装密度。
本发明允许使用所谓的开放式机架架构从而确保机架不再需再被封闭地密封。这样的开放式机架结构还允许在任何问题或需要维护的情况下更易于访问在机架内部的IT设备,特别是计算机硬件。由于在IT设备后侧处的气流的低压能够容易地关闭用于敷设电缆的普通开口。
本发明的另一优选方面是机架中的至少一些或全部包括控制装置。以这种方式,整个系统可以适应地对本地系统故障局部起反应并且可以自动地发起相应提供以便于弥补故障。
根据另一实施例,控制装置还包括温度传感器、用于管道系统的泄露检测器和/或烟雾检测器,由此所述检测器被耦合到紧急报警系统,其适于选择性地切断硬件、机架和/或冷却管单元的相关部分。
紧急系统可以被个别地设计并且布置在所述机架中的任一个中并且与邻近机架或相邻机架的紧急系统分离。烟雾和泄漏检测器可以彼此分别地且独立地安装,以便于个别地切断燃烧或冒烟的IT设备并且以便于能够维持数据中心的所有其它操作。替换地,还可以想象使用单独的检测器的组合和/或使用多功能检测器。
根据另一个实施例,机架还包括功率调度装置,其适于使总体涌入电流保持低于预定阈值。这个实施例适于防止整个数据中心汲取不能够由外部电源提供的一定数量的能量。因此,功率调度装置适于调节每个机架或一对/组机架根据给定时间片从电流或电压供应中汲取功率。
例如,与数据中心的任何其它机架相比,第一机架可以在给定时延之后加电。以这种方式,整个数据中心的峰值功率消耗能够保持低于预定阈值,从而确保外部电源不发生故障。功率调度装置可以要么被实现为向数据中心建筑物的机架中的任一个分配预定义单独的从而不同的时延的特定算法。
替换地,同样可预期到,各种机架的电源接通借助于集中式架构来控制。然而,同样互连的紧急系统在本发明的范围内,由此多个泄漏和/或烟雾检测器被电力地耦合到中央紧急系统,其可以自动地发起相应提供以便于消解系统故障。
根据另一优选实施例,数据中心还包括至少一个另外的冷却回路,例如冗余第一冷却回路,包括除第一冷却回路外在任何泄漏或其它问题情况下接管第一冷却结构的责任的同样主要的结构。优选地,冷却回路(包括第一冷却回路)具有同样在任何泄漏、部分关闭情况下允许操作的至少两个流体冷却剂吸入。
根据又一个优选实施例,数据中心中的所有泵都具有冗余备份泵,其能够在主泵失败情况下被激活。适当的断流阀允许在系统正在操作的同时替换损坏的泵。
本方法允许在相对高的环境温度(例如多达30℃)下操作数据中心。
如果机架背对背安装,则本发明的优选实施例实现附加的冗余。在那种情况下两个机架排的冷空气在机架之间的通道中混合。能够容易地通过使用独立导管和泵使两个机架排独立。在由于所有冗余泵的灾难性泄漏或故障而导致整个机架排失败情况下,离开连接到失败冷却系统的机架的空气将缓慢地上升直到达到服务器退出气温为止,所述服务器退出气温典型地比环境温度高10K。对于具有10kW功率消耗的机架,温度上升是每小时约3K。离开具有失败冷却系统的机架排的暖空气与相对机架排的空气混合。因此在通道内部的气温平均比环境温度暖仅5K。这个温度上升能够通过降低给具有工作冷却系统的机架排的冷水供应而弥补。
结合本发明所用的功率利用效率(PUE)在由Dan Azevedo、JudCooley、Michael Patterson和Mark Blackburn在www.thegreengrid.org上发布的“Data Center Efficiency Metrics-PUETM,Partial PUE,ERE,DCcE”(2011)中定义。数据中心的功率开销的最大贡献是冷却。附加的贡献是电变压和分配、备用发电,诸如电池备用系统、空调等等。所提出的发明允许将冷却开销降低至最小。本方法允许以至多1.3优选至多1.2更优选至多1.15特别地至多1.1的功率利用效率(PUE)操作数据中心。
在下文中,将通过参考附图对本发明进行详细的描述,附图中:
图1示意性地图示根据本方法操作的数据中心。
在图1的所图示的实施例中,机架(202)中的任一个都包括装备有热交换器(207)的单独的热交换单元(206)。IT设备(200)的活动装置(诸如CPU冷却风扇)促进在机架(202)内部向热交换单元(206)的气流(205)。热交换单元(206)全部被耦合到向机架(202)中的任一个输送流体冷却剂(例如水)的管道系统(203/204)。
借助于管道(203/204)供应的冷却剂是有益的,因为各种机架(202)是完全被动的并且不再必须被设计为封闭机架。而且,在各种机架(202)外的热消散能够被有效地降低至最小或者甚至完全避免。因此,不再有必要控制建筑物结构内部的全局气流。以这种方式,能够有效地消除可能由于在机架(202)外的某种不受控热气流而导致的热点的产生。
附加地,不再必须积极地控制通过数据中心建筑物结构的气流,因为与在机架(202)内部的温度相比在机架(202)周围的环境温度保持在相对冷的水平上。
为了冷却基础设施上实现容错,能够以平均的/旧方式操作机架(202),其中每隔一个机架被耦合到相同的管道,即第一或第二冗余第一冷却回路。以这种方式,能够维持两个冗余的第一冷却回路持提供残余冷却能力。
在例如由于管道(203/204)中的泄漏而导致的故障的情况下,特定机架能够选择性地与管道系统(203/204)解耦。
因为不要求遍及数据中心结构(诸如容纳多个机架的空间)引导任何空气,所以包含机架(202)的IT设备(200)能够放置在任何任意布置中。在本发明的意义内的数据中心包含多于一个机架(202)。
使数据中心中的环境温度上升因此使流体冷却剂特别是冷却水的温度上升,这直接提高被加热流体冷却剂特别是被加热的冷却水的冷却效率。
附图标记的参考列表:
200            IT设备
201            格子地板
202            机架
203/204        用于第一冷却回路的管道系统
205            在机架内部单独由包含在IT设备中的活动装置产生的气流
206            热交换单元
207            热交换器
示例1
数据中心,托管消耗500kW的功率并且被安装在美感19英寸并且具有42个高度单元的34个机架中的高性能计算机。机架是1,2m深和70cm宽。机架占地空间需要不到100m2净面积。
冷却基础设施主要由通过热交换器连接的两个冷却回路构成。第一冷却回路向热交换器传送在数据中心的19英寸机架中产生的热,所述热交换器由辅助回路往回冷却。辅助冷却回路使用两个313kW逆流、间接通风、湿式冷却塔,其中补充水取自邻近河流。整个冷却基础设施被安装在具有安装在屋顶上的两个冷却塔的20ft容器内部。能够在冷却系统保持活动但是在降低的功率下的同时一次一个地维持和清洁所述塔。应该注意的是,这个方案需要最小50kW计算机功率以便于避免冷却系统在冬天期间冻结。安装了紧急排水基础设施。
整个冷却系统实现三个电消费者:辅助泵(6kW)、第一冷却回路泵(28kW)以及在每个冷却塔中的一个风扇(每个4.5kW)。同时能够节流风扇功率,因为风扇在低于15℃的外部温度下是不需要的。两个水泵被配置成在辅助回路中以150m3/h的恒定固定容积流动运行而在第一冷却回路中以220m3/h的恒定固定容积流动运行。第一冷却回路中的水流速率足以冷却多达900kW功率,然而辅助回路到目前为止支持多达313kW的两倍。将系统升级到900kW的总功率通过将一个附加的冷却塔添加到现有基础设施是可能的。在冷却塔风扇的典型35%平均利用率和500kW最大HPC功率的假设下,导致7.4%的平均冷却开销或PUE=1.074。在具有900kW的功率负荷的完全利用的冷却系统情况下,冷却开销将是4.9%或PUE=1.049。进一步优化特别在辅助泵情况下是可预期的。在这个实施方式中泵必须在120m的大距离上驱动容积流动,因为冷却容器不能够靠近数据中心室放置。
示例2
具有3m宽度、2.9m高度以及12.2m长度的移动数据中心容器装备有13个19″机架,每个都具有以35kW操作的IT设备。455kW的总功率由混合冷却器往回冷却。水泵需要10kW并且混合冷却器需要附加的6kW,这导致PUE=1.035的功率利用效率。

Claims (15)

1.一种用于操作数据中心的方法,包括:
(i)用于容纳多个机架(202)的建筑物,每个机架是容纳IT设备的开放式机架,
(ii)所述机架(202)是容纳IT设备(200)的开放式机架,
(iii)所述机架(202)包括适于向流体冷却剂传送由所述IT设备产生的热的热交换装置(206,207),所述热交换装置是所述机架的元件或附连到所述机架的元件,优选地位于所述机架的背面或元件处,
(iv)至少一个第一冷却回路(203/204),所述冷却回路是封闭冷却回路,其适于向所述机架(202)的热交换装置(206,207)供应流体冷却剂,并且被进一步适于通过所述冷却回路的回流输送被加热的冷却剂远离所述机架(202)的热交换装置(206,207),
(v)所述第一冷却回路(203/204)被连接到提供冷却的源,所述源位于容纳所述多个机架的空间外部,
(vi)所述IT设备(200)位于具有用于使所述IT设备(200)的部分冷却的活动装置的相应机架(202)中,所述活动装置优选为风扇,所述IT设备(200)的部分优选为CPU和/或GPU和/或存储硬件,所述活动装置创造在所述机架(202)中向所述热交换装置(206,207)的气流(205),所述热交换装置(206,207)是所述机架的元件或附连到所述机架的元件,优选地位于所述机架(202)的背面或元件处,
(vii)除了包含在前述IT设备(200)内的活动装置,所述机架(202)没有用于创造在所述机架(202)中向所述热交换装置(206,207)的气流(205)的其它活动装置,具体地是风扇,所述热交换装置(206,207)是所述机架的元件或附连到所述机架的元件,优选地位于所述机架(202)的背面或元件处,
(viii)除了包含在前述IT设备(200)内的活动装置,用于容纳所述多个机架(202)的所述建筑物不包括用于创造引导气流的其它活动装置,
(ix)至少一个电功率输入端,
(x)用于从所述功率输入端向单独机架分配所述电功率的至少一个装置,从而在每个机架中允许冗余功率供应,
包括如下措施:
(a)从提供冷却的源向在所述第一冷却回路内的所述机架(202)的热交换装置(206,207)提供流体冷却剂,进入所述热交换装置(206,207)的所述流体冷却剂输入流具有1K至5K优选1K至3K最优选1K至2K的温度,低于退出所述机架(202)的热交换装置(206,207)的流体冷却剂回流的温度,
(b)控制在所述第一冷却回路(203,204)内的流体冷却剂流,所述第一冷却回路(203,204)适于供应所述机架(202)的热交换装置(206,207)以维持具有1K至5K优选1K至3K最优选1K至2K的温度的进入所述机架(202)的热交换装置(206,207)的流体冷却剂(输入流)的温度低于退出所述机架(202)的热交换装置(206,207)的所述流体冷却剂回流的温度,
(c)向提供冷却的所述源输送离开所述机架(202)的热交换装置(206,207)的被加热的流体冷却剂(返回流),所述源位于容纳所述多个机架的所述空间外部,以从所述被加热的流体冷却剂去除热至1K至5K优选1K至3K最优选1K至2K的温度,低于所述流体冷却剂回流的温度并且将所述流体冷却剂返回给所述至少一个第一冷却回路。
2.如权利要求1所述的方法,其中,在所述机架中的所述IT设备的功率密度是每机架至少5kW(电的),更优选每机架至少8kW(电的),最优选每机架至少10kW(电的)。
3.如权利要求1所述的方法,其中,所述机架(202)被布置为二维布置的数据中心,其中所述机架位于一个水平面上,或者布置为三维布置的数据中心,其中所述机架(202)位于在所述数据中心内的多于一个水平面上。
4.如权利要求1所述的方法,其中,在所述机架(202)内安装和操作的所述IT设备(200)的功率密度创造容积热消散速率,其对应于最少约5kW/m2,优选地对应于最少约10kW/m2,最优选对应于最少约20kW/m2
5.如权利要求1所述的方法,其中,容纳所述多个机架(202)的所述空间的室温是所述第一冷却回路的流体冷却剂的回流的温度的约+2K,优选+1K,更优选+0.5K,最优选约相同的。
6.如权利要求1所述的方法,其中,冷却的所述源通过以下提供背面冷却:(i)外部冷水源,优选地下水或表面水,(ii)基于蒸发原理操作的蒸发冷却,包括具有或没有开放式冷却塔的蒸发冷却塔,(iii)混合冷却器或(iv)干式冷却器。
7.如权利要求1所述的方法,其中,经由所述至少一个冷却回路进入所述数据中心以用于冷却的所述流体冷却剂具有低于进入所述热交换装置(206,207)的所述流体冷却剂的温度至多0.2K的温度。
8.如权利要求1所述的方法,其中,所述第一冷却回路的流体冷却剂的回流的温度是至多3K优选至多2K最优选至多1K,高于由进入所述数据中心的冷却的源所供应的温度以得到每机架多达10kW(电的)的总功率密度,或者其中,所述第一冷却回路的流体冷却剂的回流的温度是至多4K优选至多3K,高于由进入所述数据中心的冷却的源所供应的温度以得到每机架至少10kW(电的)的总功率密度。
9.如权利要求1所述的方法,其中,用于操作所述数据中心的所述方法不操作任何附加的空气调节器。
10.如权利要求1所述的方法,其中,除了存在于位于所述机架中的所述IT设备中的这样的活动装置外,用于操作所述数据中心的所述方法不具有用于创造在所述机架中向所述热交换装置的气流(205)的任何其它活动装置,具体地是风扇。
11.如权利要求1所述的方法,其中,存在于所述IT设备(200)中的所述活动装置、具体地是风扇创造在所述机架中向所述热交换装置的气流(205),所述气流(205)对应于100至600m3/(h*kW)的空气容积流动,其对应于至少0.5m/s、优选为至少0.8m/s、具体地为至少1.1m/s。
12.如权利要求1所述的方法,其中,存在于所述IT设备(200)中的所述活动装置、具体地是风扇创造在所述机架中向所述热交换装置的气流(205),其通过所述热交换器对于与多达0.5m/s对应的气流速率创造与最大10Pa对应的空气背压、对于与多达0.8m/s对应的气流速率创造与优选最大16Pa对应的空气背压,对于与多达1.1m/s对应的气流速率创造与更优选最大20Pa对应的空气背压。
13.如权利要求1所述的方法,其中,跨越所述热交换器的压降对于流体冷却剂、优选为水的3m3/h的容积流动被设定低于22kPa,对于流体冷却剂、优选为水的5m3/h优选低于54kPa,对于流体冷却剂、优选为水的10m3/h最优选低于200kPa。
14.如权利要求1所述的方法,其中,所述流体冷却剂、优选为水的流率从针对1K的差而安装和操作的每小时且每kW 0.9m3起设定并且到针对5K的差而安装和操作的每小时且每kW 0.17m3
15.如权利要求1所述的方法,其中,进入所述热交换装置(206,207)的所述流体冷却剂的温度被调整为不超过每机架10kW的每机架安装和操作每kW的0.1至0.5K,低于退出所述机架(202)的热交换装置(206,207)的所述流体冷却剂回流的温度,或者其中,进入所述热交换装置(206,207)的所述流体冷却剂的温度被调整为每机架合计在10kW与25kW之间的每机架安装和操作每kW的0.1至0.2K,低于退出所述机架(202)的热交换装置(206,207)的所述流体冷却剂回流的温度,或者其中,进入所述热交换装置(206,207)的所述流体冷却剂的温度被调整为每机架合计高于25kW的每机架安装和操作每kW的0.1至0.125K,低于退出所述机架(202)的热交换装置(206,207)的所述流体冷却剂回流的温度。
CN201380024678.7A 2012-05-11 2013-05-10 利用高效冷却装置操作数据中心的方法 Active CN104272889B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP12003748 2012-05-11
EP12003748.6 2012-05-11
EP12007913.2A EP2663172A1 (en) 2012-05-11 2012-11-23 Method for operating a data centre with efficient cooling means
EP12007913.2 2012-11-23
PCT/EP2013/001391 WO2013167280A1 (en) 2012-05-11 2013-05-10 Method for operating a data centre with efficient cooling means

Publications (2)

Publication Number Publication Date
CN104272889A true CN104272889A (zh) 2015-01-07
CN104272889B CN104272889B (zh) 2018-04-27

Family

ID=47257356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380024678.7A Active CN104272889B (zh) 2012-05-11 2013-05-10 利用高效冷却装置操作数据中心的方法

Country Status (13)

Country Link
US (2) US10653041B2 (zh)
EP (2) EP2663172A1 (zh)
CN (1) CN104272889B (zh)
BR (1) BR112014028056B1 (zh)
CA (1) CA2873088C (zh)
DE (1) DE13726418T1 (zh)
DK (1) DK2848105T4 (zh)
ES (1) ES2627107T5 (zh)
MX (1) MX345661B (zh)
PL (1) PL2848105T3 (zh)
RU (1) RU2623495C2 (zh)
SG (1) SG11201407165QA (zh)
WO (1) WO2013167280A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110447315A (zh) * 2017-07-28 2019-11-12 百度时代网络技术(北京)有限公司 用于数据中心中的使it部件液体冷却的电子器件机架的液体冷却设计
CN111026252A (zh) * 2019-12-06 2020-04-17 苏州浪潮智能科技有限公司 一种服务器温度冗余控制的方法及装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008030308A1 (de) 2008-06-30 2009-12-31 Lindenstruth, Volker, Prof. Gebäude für ein Rechenzentrum mit Einrichtungen zur effizienten Kühlung
US8116080B2 (en) * 2009-12-28 2012-02-14 International Business Machines Corporation Container-based data center having greater rack density
JP2015161489A (ja) * 2014-02-28 2015-09-07 富士通株式会社 データセンタ、制御装置の制御プログラムおよびデータセンタの制御方法
US9414531B1 (en) * 2014-09-24 2016-08-09 Amazon Technologies, Inc. Modular data center without active cooling
US9847673B2 (en) 2015-08-06 2017-12-19 Microsoft Technology Licensing, Llc Active power transfer switch control to reduce service impacts due to electrical power interruptions
US9946328B2 (en) 2015-10-29 2018-04-17 International Business Machines Corporation Automated system for cold storage system
US10939587B2 (en) * 2017-02-16 2021-03-02 Dell Products, L.P. System and method for injecting cooling air into servers in a server rack
EP3717839B1 (en) 2017-11-30 2022-11-02 Framatome GmbH Ventilation and air conditioning system with a passive emergency cooling mode
US10939588B2 (en) * 2017-11-30 2021-03-02 Schneider Electric It Corporation Airflow distribution and management architecture for large data center
RU190100U1 (ru) * 2019-03-21 2019-06-18 Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр - Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина") Мобильный центр обработки данных
CN110456716A (zh) * 2019-08-28 2019-11-15 大连应达实业有限公司 高效直混式换热装置的物联网管控系统
US11829215B2 (en) * 2020-11-30 2023-11-28 Nvidia Corporation Intelligent and redundant liquid-cooled cooling loop for datacenter cooling systems
WO2022119465A1 (ru) * 2020-12-01 2022-06-09 Федеральное государственное унитарное предприятие "Российский федеральный ядерный центр - Всероссийский научно-исследовательский институт технической физики имени академика Е.И. Забабахина" Система защиты вычислительного оборудования центра обработки данных
CN114356059A (zh) * 2021-12-31 2022-04-15 联想(北京)信息技术有限公司 服务器的冷却液分配设备控制方法、装置及服务器系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101420839A (zh) * 2007-10-22 2009-04-29 三洋电机株式会社 电子设备冷却系统以及电子设备冷却装置
US20110232889A1 (en) * 2010-03-23 2011-09-29 International Business Machines Corporation Computer rack cooling using independently-controlled flow of coolants through a dual-section heat exchanger

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2075349A (en) 1935-08-26 1937-03-30 Williams Oil O Matic Heating Refrigeration
US3334684A (en) * 1964-07-08 1967-08-08 Control Data Corp Cooling system for data processing equipment
FI802202A (fi) 1979-07-20 1981-01-21 Zampieri P Braennare foer att braenna vaetskeformigt braensle med blao flamma
FR2588072B1 (fr) 1985-09-30 1987-12-11 Jeumont Schneider Installation de dissipation pour elements semi-conducteurs de puissance
US5323847A (en) 1990-08-01 1994-06-28 Hitachi, Ltd. Electronic apparatus and method of cooling the same
US5509468A (en) * 1993-12-23 1996-04-23 Storage Technology Corporation Assembly for dissipating thermal energy contained in an electrical circuit element and associated method therefor
GB2354062A (en) 1999-09-13 2001-03-14 British Broadcasting Corp Cooling system for use in cooling electronic equipment
US6301837B1 (en) 2000-03-13 2001-10-16 Kewaunee Scientific Corp. Rack assembly for supporting electronic units
EP1266548B2 (en) 2000-03-21 2015-07-29 Liebert Corporation Method and apparatus for cooling electronic enclosures
AU2002216288A1 (en) 2000-12-22 2002-07-08 Clearspace Technology Limited Data centre building
GB0207382D0 (en) 2002-03-28 2002-05-08 Holland Heating Uk Ltd Computer cabinet
US20040008483A1 (en) * 2002-07-13 2004-01-15 Kioan Cheon Water cooling type cooling system for electronic device
US6714412B1 (en) * 2002-09-13 2004-03-30 International Business Machines Corporation Scalable coolant conditioning unit with integral plate heat exchanger/expansion tank and method of use
US7203574B2 (en) 2003-01-10 2007-04-10 Lockheed Martin Corporation Self-sustaining environmental control unit
DE10310282A1 (de) 2003-03-07 2004-09-16 Rittal Gmbh & Co. Kg Flüssigkeits-Kühlsystem
US7278273B1 (en) 2003-12-30 2007-10-09 Google Inc. Modular data center
DE202004006552U1 (de) * 2004-04-26 2004-07-08 Knürr AG Kühlungssystem für Geräte- und Netzwerkschränke
JP4321413B2 (ja) 2004-09-02 2009-08-26 株式会社日立製作所 ディスクアレイ装置
CN101044811A (zh) 2004-11-14 2007-09-26 利伯特公司 用于立式板卡型计算机系统的机架中的集成式热交换器
US7266741B2 (en) 2004-11-19 2007-09-04 Fong Luk Generation of test vectors for testing electronic circuits taking into account of defect probability
DE102005005588B4 (de) 2005-02-07 2008-03-13 Knürr AG Schaltschrank
US7385810B2 (en) 2005-04-18 2008-06-10 International Business Machines Corporation Apparatus and method for facilitating cooling of an electronics rack employing a heat exchange assembly mounted to an outlet door cover of the electronics rack
US7315448B1 (en) 2005-06-01 2008-01-01 Hewlett-Packard Development Company, L.P. Air-cooled heat generating device airflow control system
US7448437B2 (en) 2005-06-24 2008-11-11 Fu Zhun Precision Industry (Shenzhen) Co., Ltd. Heat dissipating device with heat reservoir
WO2007139559A1 (en) 2006-06-01 2007-12-06 Exaflop Llc Controlled warm air capture
WO2007139558A1 (en) 2006-06-01 2007-12-06 Exaflop Llc Warm cooling for electronics
US7551971B2 (en) 2006-09-13 2009-06-23 Sun Microsystems, Inc. Operation ready transportable data center in a shipping container
US8727458B2 (en) 2006-10-20 2014-05-20 Adc Telecommunications, Inc. High density telecommunications mounting drawer
US8395896B2 (en) 2007-02-24 2013-03-12 Hewlett-Packard Development Company, L.P. Redundant cooling systems and methods
FR2914340B1 (fr) 2007-03-30 2011-02-25 Data 4 Structure d'un batiment destine a heberger des donnees informatiques
US7511959B2 (en) 2007-04-25 2009-03-31 Hewlett-Packard Development Company, L.P. Scalable computing apparatus
US7477514B2 (en) 2007-05-04 2009-01-13 International Business Machines Corporation Method of facilitating cooling of electronics racks of a data center employing multiple cooling stations
US8320125B1 (en) * 2007-06-29 2012-11-27 Exaflop Llc Modular data center cooling
US20090229283A1 (en) 2007-08-24 2009-09-17 Joseph Marsala Method and apparatus for isothermal cooling of hard disk drive arrays using a pumped refrigerant loop
US7864530B1 (en) 2007-09-28 2011-01-04 Exaflop Llc Changing data center cooling modes
US8113009B2 (en) * 2007-10-22 2012-02-14 Sanyo Electric Co., Ltd. Electronic device cooling system and electronic device cooling apparatus
ATE540566T1 (de) * 2007-11-09 2012-01-15 Knuerr Gmbh System und verfahren zur klimatisierung
US7963119B2 (en) 2007-11-26 2011-06-21 International Business Machines Corporation Hybrid air and liquid coolant conditioning unit for facilitating cooling of one or more electronics racks of a data center
US7808780B2 (en) 2008-02-28 2010-10-05 International Business Machines Corporation Variable flow computer cooling system for a data center and method of operation
DE102008030308A1 (de) 2008-06-30 2009-12-31 Lindenstruth, Volker, Prof. Gebäude für ein Rechenzentrum mit Einrichtungen zur effizienten Kühlung
US20110175498A1 (en) 2008-09-30 2011-07-21 Cullen Bash Data Center
GB0905870D0 (en) 2009-04-03 2009-05-20 Eaton Williams Group Ltd A rear door heat exchanger
US20110056675A1 (en) * 2009-09-09 2011-03-10 International Business Machines Corporation Apparatus and method for adjusting coolant flow resistance through liquid-cooled electronics rack(s)
US8286442B2 (en) * 2009-11-02 2012-10-16 Exaflop Llc Data center with low power usage effectiveness
US8116080B2 (en) 2009-12-28 2012-02-14 International Business Machines Corporation Container-based data center having greater rack density
GB201008099D0 (en) * 2010-05-14 2010-06-30 Eaton Williams Group Ltd A rear door heat exchanger
DE102010031909A1 (de) 2010-07-22 2012-01-26 Airbus Operations Gmbh Abdichtungssystem
TWI422318B (zh) * 2010-10-29 2014-01-01 Ind Tech Res Inst 數據機房
TW201229451A (en) * 2011-01-11 2012-07-16 Hon Hai Prec Ind Co Ltd Heat circle system
US8804334B2 (en) * 2011-05-25 2014-08-12 International Business Machines Corporation Multi-rack, door-mounted heat exchanger
EP2555605A1 (en) 2011-08-01 2013-02-06 GSI Helmholtzzentrum für Schwerionenforschung GmbH Mobile data centre unit with efficient cooling means
US10880180B2 (en) 2015-09-16 2020-12-29 Huawei Technologies Co., Ltd. Method and apparatus for data analytics management

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101420839A (zh) * 2007-10-22 2009-04-29 三洋电机株式会社 电子设备冷却系统以及电子设备冷却装置
US20110232889A1 (en) * 2010-03-23 2011-09-29 International Business Machines Corporation Computer rack cooling using independently-controlled flow of coolants through a dual-section heat exchanger

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Data Center Rack Cooling with Rear-door Heat Exchanger;Geoffrey C. Bell,P.E.;《Energy Efficiency & Renewable Energy》;20100630;全文 *
GEOFFREY C. BELL,P.E.: "Data Center Rack Cooling with Rear-door Heat Exchanger", 《ENERGY EFFICIENCY & RENEWABLE ENERGY》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110447315A (zh) * 2017-07-28 2019-11-12 百度时代网络技术(北京)有限公司 用于数据中心中的使it部件液体冷却的电子器件机架的液体冷却设计
CN111026252A (zh) * 2019-12-06 2020-04-17 苏州浪潮智能科技有限公司 一种服务器温度冗余控制的方法及装置
CN111026252B (zh) * 2019-12-06 2021-08-24 苏州浪潮智能科技有限公司 一种服务器温度冗余控制的方法及装置

Also Published As

Publication number Publication date
US20210092866A1 (en) 2021-03-25
DK2848105T3 (en) 2017-06-19
WO2013167280A1 (en) 2013-11-14
EP2848105B2 (en) 2020-11-25
CA2873088C (en) 2020-12-15
CA2873088A1 (en) 2013-11-14
US20150083363A1 (en) 2015-03-26
EP2848105B1 (en) 2017-03-08
EP2663172A1 (en) 2013-11-13
BR112014028056A2 (pt) 2017-08-08
EP2848105A1 (en) 2015-03-18
MX2014013689A (es) 2015-07-06
RU2623495C2 (ru) 2017-06-27
PL2848105T3 (pl) 2017-08-31
DK2848105T4 (da) 2021-03-01
CN104272889B (zh) 2018-04-27
RU2014150044A (ru) 2017-05-23
SG11201407165QA (en) 2014-11-27
MX345661B (es) 2017-02-09
DE13726418T1 (de) 2015-09-17
BR112014028056B1 (pt) 2021-12-07
US10653041B2 (en) 2020-05-12
ES2627107T5 (es) 2021-09-15
ES2627107T3 (es) 2017-07-26

Similar Documents

Publication Publication Date Title
CN104272889B (zh) 利用高效冷却装置操作数据中心的方法
EP2740338B1 (en) Mobile data centre unit with efficient cooling means
US20130032310A1 (en) Transportable, environmentally-controlled equipment enclosure
CN102573420A (zh) 一种嵌入式机柜空调制冷系统
CN111683503A (zh) 一种移动分层式具有实时高温监测功能的计算机柜
CN106659058A (zh) 一种一体化内循环服务器机柜
US20090301688A1 (en) Cooling Apparatus and Methods for Cooling
CN207354781U (zh) 一种快速散热的多功能计算机柜
CN220189791U (zh) 储能系统
CN207720631U (zh) 一种数据中心微模块封闭冷通道
US20240114667A1 (en) Hybrid datacentre module
KR102690214B1 (ko) 랙­기반 냉각을 이용한 초고밀도 데이터센터의 독립공조시스템 및 무중단 통합설비관리시스템
CN201690720U (zh) 户外通信设备系统
CN204929503U (zh) 云计算综合节能机箱
KR20230137619A (ko) 랙­기반 냉각을 이용한 초고밀도 데이터센터의 독립공조시스템 및 무중단 통합설비관리시스템
CN113183791A (zh) 一种充电桩的散热管理系统控制方法及散热管理系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant