DE112009005129B4 - Ein System zum Bereitstellen von physisch getrennten Rechen- undI/0-Ressourcen in dem Datenzentrum, um Raum- undLeistungseinsparungen zu ermöglichen - Google Patents

Ein System zum Bereitstellen von physisch getrennten Rechen- undI/0-Ressourcen in dem Datenzentrum, um Raum- undLeistungseinsparungen zu ermöglichen Download PDF

Info

Publication number
DE112009005129B4
DE112009005129B4 DE112009005129.4T DE112009005129T DE112009005129B4 DE 112009005129 B4 DE112009005129 B4 DE 112009005129B4 DE 112009005129 T DE112009005129 T DE 112009005129T DE 112009005129 B4 DE112009005129 B4 DE 112009005129B4
Authority
DE
Germany
Prior art keywords
computing
rack
resources
devices
data center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112009005129.4T
Other languages
English (en)
Other versions
DE112009005129T5 (de
Inventor
Arlen L. Roesner
Brandon Rubenstein
John F. Hutton
Richard Stanton Self
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Enterprise Development LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of DE112009005129T5 publication Critical patent/DE112009005129T5/de
Application granted granted Critical
Publication of DE112009005129B4 publication Critical patent/DE112009005129B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4063Device-to-bus coupling
    • G06F13/409Mechanical coupling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/20Cooling means
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/14Mounting supporting structure in casing or on frame or rack
    • H05K7/1485Servers; Data center rooms, e.g. 19-inch computer racks
    • H05K7/1488Cabinets therefor, e.g. chassis or racks or mechanical interfaces between blades and support structures
    • H05K7/1492Cabinets therefor, e.g. chassis or racks or mechanical interfaces between blades and support structures having electrical distribution arrangements, e.g. power supply or data communications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/14Mounting supporting structure in casing or on frame or rack
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20536Modifications to facilitate cooling, ventilating, or heating for racks or cabinets of standardised dimensions, e.g. electronic racks for aircraft or telecommunication equipment
    • H05K7/20554Forced ventilation of a gaseous coolant
    • H05K7/20572Forced ventilation of a gaseous coolant within cabinets for removing heat from sub-racks, e.g. plenum
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20718Forced ventilation of a gaseous coolant
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20718Forced ventilation of a gaseous coolant
    • H05K7/20745Forced ventilation of a gaseous coolant within rooms for removing heat from cabinets, e.g. by air conditioning device
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20763Liquid cooling without phase change
    • H05K7/20781Liquid cooling without phase change within cabinets for removing heat from server blades
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating
    • H05K7/20709Modifications to facilitate cooling, ventilating, or heating for server racks or cabinets; for data centers, e.g. 19-inch computer racks
    • H05K7/20763Liquid cooling without phase change
    • H05K7/2079Liquid cooling without phase change within rooms for removing heat from cabinets
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

Ein System zum Bereitstellen physisch getrennter Rechen- und Eingabe-/Ausgabe-(I/O-)Ressourcen in einem Datenzentrum, das folgende Merkmale aufweist:
ein Rechengestell (110) einer Serverinfrastruktur zum Häusen von einer oder mehreren Rechenressourcen, wobei das Rechengestell (110) eine Flüssigkeitskühlung für die eine oder die mehreren Rechenressourcen verwendet und in einem flüssigkeitsgekühlten Datenzentrumsraum (1100) angeordnet ist;
ein I/O-Gestell (150), das entfernt von dem Rechengestell (110) in einem luftgekühlten Datenzentrumsraum (1500) angeordnet ist, zum Häusen von einer oder mehreren I/O-Ressourcen, wobei das I/O-Gestell (150) eine Luftkühlung für die eine oder die mehreren I/O-Ressourcen verwendet; und
Optikkabel (214, 264), die eine Kommunikation zwischen der einen oder den mehreren Rechenressourcen und der einen oder den mehreren I/O-Ressourcen ermöglichen.

Description

  • Hintergrund
  • Herkömmliche Computerserver lagern üblicherweise die Rechenressourcen, z. B. zentrale Verarbeitungseinheit (CPU; CPU = central processing unit) und Speicher, und Eingangs-/Ausgangs-(I/O-)Adapter innerhalb desselben Gehäuses in einem Datenzentrum ein. Die wenigen Systeme, die ein geteiltes I/O verwenden, enthalten üblicherweise eine I/O-Funktionalität, die weiterhin spezifische I/O-Strukturen verwendet, die immer noch lokal mit dem Server verbunden sind. Als ein Ergebnis sind diese Hardwaretypen physisch eng beieinander und müssen unter Annahme dieser großen Nähe in dem Datenzentrum mit Leistung versorgt und gekühlt werden.
  • Servergehäuse, die CPUs und Speicher enthalten, benötigen weiterhin eine Luftkühlung, da die Gehäuse spezielle I/O-Bauelemente und andere Komponenten einlagern, die nicht durch alternative Kühlungsverfahren gekühlt werden können, abgesehen von Luftkühlung, z. B. ausschließliche Wärmeleitung zu dem Gestell.
  • Server, die eine geteilte I/O aufweisen, bleiben üblicherweise in der Nähe der I/O-Ausrüstung, da eine I/O-Verbindungsverkabelung zwischen diesen Ressourcen eher lokal an dem Server ist und es häufig keinen Bedarf gibt, diese weiter zu trennen.
  • Aus der US 2003/0200330 A1 ist ein Schaltsystem bekannt, das als ein Einzelgehäusesystem oder ein Multigehäusesystem ausgeführt sein kann, für die ein Temperaturverwaltungssystem offenbart ist, das einen Lüfter aufweisen kann.
  • Die US 2006/0187639 A1 offenbart ein Kühlsystem, bei dem eine Wärmesenke, die mit Fluidleitungen versehen ist, vorgesehen ist, um Wärme von einer Schaltungsplatine abzuleiten. Eine Kühlflüssigkeit, Gas oder Luft kann verwendet werden, um in den Fluidleitungen zu zirkulieren.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein System, ein Verfahren und eine Serversystem zu schaffen, die ein effizientes Kühlen ermöglichen.
  • Diese Aufgabe wird durch ein System gemäß Anspruch 1, ein Verfahren gemäß Anspruch 9 und ein Serversystem gemäß Anspruch 13 gelöst.
  • Beschreibung der Zeichnungen
  • Die detaillierte Beschreibung bezieht sich auf die folgenden Zeichnungen, in denen gleiche Bezugszeichen sich auf gleiche Objekte beziehen und in denen:
  • 1A, 1B exemplarisch konfigurierte Gestelle darstellen zum Bereitstellen physisch getrennter Rechen- und I/O-Ressourcen in dem Datenzentrum, um Raum- und Leistungseinsparungen zu ermöglichen;
  • 2 eine Draufsicht des exemplarischen Datenzentrum-Grundrisses ist zum Bereitstellen physisch getrennter Rechen- und I/O-Ressourcen in dem Datenzentrum, um Raum- und Leistungseinsparungen zu ermöglichen;
  • 3 ein Flussdiagramm ist, das ein Ausführungsbeispiel eines Verfahrens darstellt zum Bereitstellen physisch getrennter Rechen- und I/O-Ressourcen in dem Datenzentrum, um Raum- und Leistungseinsparungen zu ermöglichen; und
  • 4 exemplarische Hardwarekomponenten eines Computers darstellt, die in Verbindung mit dem Verfahren zum Bereitstellen physisch getrennter Rechen- und I/O-Ressourcen in dem Datenzentrum verwendet werden können, um Raum- und Leistungseinsparungen zu ermöglichen.
  • Detaillierte Beschreibung
  • Traditionelle Serverrechensysteme lagern Eingangs-/Ausgangs-(I/O-)Ressourcen ein, d. h. I/O-Hardware, zusammen mit den Rechenressourcen, d. h. Rechenhardware, üblicherweise aufgrund des Bedarfs zum Kommunizieren zwischen den Rechen- und I/O-Ressourcen bei schnellen Geschwindigkeiten. Beispiele von Rechenressourcen umfassen eine zentrale Verarbeitungseinheit (CPU) und einen Speicher.
  • Ein Ausführungsbeispiel eines Systems und Verfahrens teilt I/O-Ressourcen (d. h. Hardware und Vorrichtungen) von Rechenressourcen eines Servers, wie z. B. CPU und Speicher, durch Bewegen der lokalen I/O-Vorrichtungen des Servers zu einem entfernten Ort weg von den Rechenressourcen des Servers. Ein Ausführungsbeispiel verwendet eine optische Technik zum Trennen direkt angebrachter I/O-Wurzelports von CPUs und Speicher in einer Serverarchitektur und zum Erreichen der schnellen Kommunikationsgeschwindigkeiten, die zwischen den Rechenressourcen und langen Distanzen benötigt werden, die entfernt angeordneten I/O-Ressourcen zugeordnet sind. Genauer gesagt verwendet ein Ausführungsbeispiel Faseroptikkabel (d. h. optische Kabel) und eine Elektrisch-zu-optisch-Umwandlung, um eine Kommunikation zwischen den Rechenressourcen und den I/O-Ressourcen zu ermöglichen. Die Rechenressourcen und die entfernt angeordneten I/O-Ressourcen können unterschiedlich entworfen sein, um eine Flüssigkühlung ausschließlich für die Rechenressourcen und eine Luftkühlung für die I/O-Ressourcen zu ermöglichen.
  • Ferner kann das Datenzentrum in Ausrüstungsorte aufgeteilt sein, die sich in ihren Kühlungsanforderungen unterscheiden. Mit der Aufteilung der Rechen- und I/O-Ressourcen kann die Bodenraum-Gestelldichte der Rechenressourcen erhöht werden, wodurch die Leistungs- und Kühleffizienz erhöht wird und eine sichere Möglichkeit zum Integrieren einer Flüssigkeitskühlung auf Gestellebene bereitgestellt wird. Als Ergebnis kann Datenzentrums-Leistungsversorgung und -Kühlung effizienter ausgeführt werden, wodurch Kosten auf der Datenzentrumsebene gespart werden.
  • Ferner können die optischen Kabel viele Server mit vielen I/O-Bauelementen verbinden und weniger Verknüpfungen verwenden als herkömmliche I/O-Strukturen. Die I/O-Bauelemente können in einem separaten I/O-Gehäuse gehäust sein, das eine traditionelle Luftkühlung in dem Datenzentrum verwenden kann. Ohne den Mehraufwand, Hochleistungs-CPUs und Speicher zu haben, die in dem I/O-Gehäuse vorhanden sind, verbrauchen diese I/O-Bauelemente weniger Energie unter Verwendung der traditionellen Luftkühlungsinfrastruktur des Datenzentrums.
  • 1A, 1B und 2 stellen ein exemplarisches leitfähig gekühltes Rechengestell 110 (gezeigt in 1A und 2) dar, das physisch von einem exemplarischen luftgekühlten I/O-Gestell getrennt ist (gezeigt in 1B und 2). Diese Figuren zeigen ein leitfähig gekühltes Rechengestell ausschließlich zu Darstellungszwecken. Ein Fachmann auf dem Gebiet wird erkennen, dass andere Typen einer Flüssigkeitskühlung gleichermaßen angewendet werden können.
  • Bezug nehmend auf 1A umfasst das exemplarische Rechengestell 110 Rechenbücher 120, die eine Rechenhardware häusen, wie z. B. Speicher 106 und CPU 108. Die Rechenhardware verwendet üblicherweise mehr Leistung als die I/O-Hardware, wodurch eine Flüssigkeitskühlung für die Rechenhardware bevorzugt ist. Nach der Trennung der Rechen- und I/O-Hardware kann eine Flüssigkeitskühlung verwendet werden, um die Rechenhardware zu kühlen, durch Bereitstellen einer zentralen Kühlungszone. Genauer gesagt kann das Rechengestell 110 Wärmerohre 104 umfassen, die Wärme von Hauptwärmeerzeugern, wie z. B. dem Speicher 106 und der CPU 108, zu einem zentralen leitfähigen Flüssigkeit-zu-Flüssigkeit-Wärmetauscher 140 übertragen, was die Anbringung von gestellbasierten Kälteplatten 102 (d. h. Wärmeflussplatten) ermöglicht, die auf der Rückseite des Rechengestells angeordnet sind. Der zentrale Wärmetauscher wird mit kaltem Wasser 144 beliefert und warmes Wasser 146 verlässt ihn, wenn die Wärme ausgetauscht ist. Der zentrale Wärmetauscher 140 kann ferner mit anderen Komponenten verbunden sein, die mit herkömmlichen Lüftern gekühlt werden, wie z. B. die Leistungsversorgungen 148. Um diese Komponenten zu kühlen, kann ein abgedichtetes Abteil in dem Produkt entworfen sein, um einen geschlossenen Kreis aus Luft bereitzustellen, der direkt in einen kleineren Luft-zu-Flüssigkeit-Wärmetauscher 142 eingeht, der mit demselben zentralen Flüssigkeit-zu-Flüssigkeit-Wärmetauscher an der Rückseite des Gestells verbunden ist. Eine andere gültige Instanz eines ausschließlich flüssigkeitsgekühlten Gestells, abgesehen von dem, das hier detailliert gezeigt ist, ist die Verwendung von unabhängigen Klimaanlageneinheiten (AC-Einheiten; AC = air conditioning) mit geschlossenem Kreis, die an einem einzelnen Gestell angebracht sind und kühle Luft zu der Vorderseite des Gestells bereitstellen, während erwärmte Luft an der Rückseite des Gestells gesammelt wird.
  • Bezug nehmend auf 1A kann die gesamte Rechenhardware an der Rechengestellvorderseite 130 angeordnet sein, wobei die Kälteplatten 102 an der Rückseite 140 des Rechengestells 110 angeordnet sind. Die einzigen Kabel, die zum Verbinden mit den entfernten I/O-Gestellen benötigt werden, sind an der Rechengestellvorderseite 130 angeordnet, wo sich Optikkommunikationen mit den extern angeordneten I/O-Ressourcen befinden. Genauer gesagt, weiterhin Bezug nehmend auf 1A, sind Rechengestell-Elektrik-zu-Optik-(EO-)Umwandlungsvorrichtungen 112 an der Rechengestellvorderseite 130 in der Nähe der Rechengestell-Optikports 114 angeordnet. Rechengestelloptikkabel 214 (gezeigt in 2) verbinden die Rechengestell-Optikports 114 mit einem Optikkabelmezzanin 240 (gezeigt in 2), das mit den extern angeordneten I/O-Ressourcen verbunden ist. Als Ergebnis stellen das System und das Verfahren eine Flüssigkeitskühlung an dem Servergestell bereit, ohne Flüssigkeit in die Serverausrüstung selbst einzubringen. Datenzentrum-Bedienpersonen bevorzugen Flüssigkeitskühlung in dem Datenzentrum, da die Bedienpersonen häufig Wasserleitungen auf dem Boden haben, die an die CRAC-Einheiten angebracht sind, aber nicht an die tatsächliche Elektronik. Schnelltrennungen sind nicht notwendig, da alle Flüssigkeitskühlungsschnittstellen Leitungsplatten sind.
  • Bezug nehmend auf 1B umfasst das I/O-Gestell 150 I/O-Karten 152. An der Rückseite 180 des I/O-Gestells ermöglichen I/O-Kabel 182 eine Kommunikation zwischen den I/O-Karten 152 und anderen Teilen der Datenzentrumsinfrastruktur, wie z. B. Netzwerkbauelementen und Speicherungsbauelementen. IC-Gestell-EO-Umwandlungsbauelemente 162 sind an der I/O-Gestellvorderseite 170 angeordnet oder alternativ an der Gestellrückseite 180 in der Nähe von I/O-Gestell-Optikports 164. I/O-Gestell-Optikkabel 264 (gezeigt in 2) verbinden die I/O-Gestell-Optikports 164 mit dem Optikkabelmezzanin 240 (gezeigt in 2). Eine Luftkühlung wird für das I/O-Gestell 150 verwendet, um die I/O-Hardware zu kühlen, wobei Kühlungsluft bei 174 zu dem Kältegang an der Vorderseite des Gestells 170 bereitgestellt wird, und warme Luft 176 an der Rückseite des Gestells 180 ausgestoßen wird.
  • 2 ist eine Draufsicht des exemplarischen flüssigkeitsgekühlten Datenzentrumsraums 1100 und des exemplarischen luftgekühlten Datenzentrumsraums 1500. Der flüssigkeitsgekühlte Raum 1100 ist mit dem luftgekühlten Raum 1500 unter Verwendung von Rechengestell-Optikkabeln 214 verbunden, dem Optikkabelmezzanin 240 und I/O-Gestell-Optikkabeln 264. Die Rechengestell-Optikkabel 214 verbinden die Rechengestell-Optikports 114 (gezeigt in 1A) an der Rechengestellvorderseite 130 mit dem Optikkabelmezzanin 240. Da eine Flüssigkeitskühlung ausschließlich in dem Raum verwendet wird, der Rechengestelle 110 enthält, können Zugriffsgänge 210 bei ungeregelter Raumtemperatur beibehalten werden, was ermöglicht, dass dieser Abschnitt des Datenzentrums zum Kühlen der Infrastruktur gespart wird. Andererseits wird eine traditionelle Luftkühlung für das I/O-Gestell 150 verwendet, mit Kältegängen 270 an der I/O-Gestellvorderseite 170 und Wärmegängen 280 an der I/O-Gestellrückseite 180. Kaltraumklimatisierungs-(CRAC-; CRAC = cold room air conditioning)Einheiten 290 werden zum Luftkühlen der I/O-Hardware verwendet, wie z. B. der I/O-Karten 152 (gezeigt in 1B).
  • Das Trennen der Rechenressourcen von den I/O-Ressourcen erreicht Kosteneinsparungen, die dem Versorgen mit Leistung und der Kühlung der Serverausrüstung in dem Datenzentrum zugeordnet sind. Die Datenzentrumsinfrastruktur kann um den Typ der Ausrüstung optimiert sein, der in diesen unterschiedlichen Abschnitten des Datenzentrums eingesetzt wird. Zum Beispiel können CPU und Speicher in einem Datenzentrumsraum platziert sein, der wenig Luftbewegung erfordert, da die Flüssigkeitskühlungsinstallationen zu dem Raum die gesamte Wärme entfernen können, die an diesen Typen von Produkten beteiligt ist. In einem benachbarten Raum kann eine herkömmliche Heizung, Lüftung und Klimaanlage (HVAC; HVAC = heating, ventilation and air conditioning) verwendet werden oder CRAC-Klimaanlageneinheiten können für die I/O-Hardware verwendet werden. Die Kosteneinsparungen, die in dem Datenzentrum beteiligt sind, können verwendet werden, um die Extrakosten aufzuheben, die an der optischen Verkabelung zwischen den Rechen- und I/O-Ressourcen beteiligt sind.
  • Die Vorteile des Systems von Trennen von Rechen- und I/O-Ressourcen in dem Datenzentrum, um Raum- und Leistungseinsparungen zu ermöglichen, sind wie folgt. Die I/O-Hardware ist von der Rechenhardware des Servers getrennt, wie z. B. CPU und Speicher, was die Möglichkeit eröffnet, Produkte getrennt voneinander zu entwerfen. Wenn Produkte getrennt voneinander entworfen sein können, können unterschiedliche Mittel zum Kühlen für jedes Produkt verwendet werden. Eine Flüssigkeitskühlung kann für die Rechenhardware verwendet werden, während eine Luftkühlung für die I/O-Hardware verwendet werden kann, ohne den Bedarf, Kühlungsverfahren miteinander in ein einzelnes Produkt zu verbinden. Das System ermöglicht ferner einen effizienteren Aufbau der Datenzentrumsinfrastruktur, um Kosten von Leistung und Kühlung an den Servern zu sparen. Ohne die I/O-Hardware verwendet der Server weniger Grundfläche in dem Datenzentrum, wodurch Elektrizität und Ausrüstung gespart wird und ein Einrichtungskosten für Datenzentrums-Bedienpersonen.
  • Wenn das System leitend unter Verwendung eines zentralen Wärmetauschers 140 gekühlt wird, stellt das System eine Flüssigkeitskühlung auf der Gestellebene bereit, ohne Flüssigkeit in dasselbe Gehäuse einzubringen wie die Rechenhardware selbst. Schnelltrennungen werden nicht benötigt, da alle Flüssigkeitskühlschnittstellen Leitplatten sind, d. h. Kälteplatten 102. Die Übernahme einer Flüssigkeitskühlung in das Rechengestell 110 kann vorteilhafter sein und zu schnellerer Verwendung und schnelleren Einsparungen für Datenzentrumskunden führen.
  • Ferner sind die Fern-I/O-Vorrichtungen mit dem Server unter Verwendung einer Schalt-Kommunikations-Struktur verbunden, die generischer ist durch Verbinden vieler Server mit vielen I/O-Vorrichtungen. Als Ergebnis hat die Datenzentrums-Bedienperson mehr Freiheit, den Server von den I/O-Vorrichtungen bei längeren Distanzen zu trennen und unterschiedliche Ausrüstung in unterschiedliche Orte des Datenzentrums zu trennen.
  • 3 ist ein Flussdiagramm, das ein Ausführungsbeispiel eines Verfahrens 300 zum Bereitstellen physisch getrennter Rechen- und I/O-Ressourcen in dem Datenzentrum bereitstellt, um Raum- und Leistungs-Einsparungen zu ermöglichen. Das Verfahren beginnt 302 durch Anwenden einer Flüssigkeitskühlung ausschließlich an eine oder mehrere Rechenvorrichtungen, die an einem Rechengestell einer Serverinfrastruktur angeordnet sind (Block 310). Das Verfahren 300 wendet eine Luftkühlung an eine oder mehrere I/O-Vorrichtungen an, die an einem I/O-Gestell angeordnet sind, das entfernt von dem Rechengestell angeordnet ist (Block 320). Das Verfahren 300 verwendet ein oder mehrere Rechengestell-EO-Umwandlungsvorrichtungen an der Vorderseite des Rechengestells, um ein oder mehrere Rechenvorrichtungen mit Optikkabeln zu verbinden (Block 330) Das Verfahren 300 verwendet ferner ein oder mehrere I/O-Gestell-EO-Umwandlungsvorrichtungen an der Vorderseite des I/O-Gestells, um die I/O-Vorrichtungen mit den Optikkabeln zu verbinden (Block 340). Das Verfahren 300 endet bei Block 350.
  • 4 stellt exemplarische Hardwarekomponenten eines Computers dar, die in Verbindung mit dem Verfahren zum Bereitstellen physisch getrennter Rechen- und Eingangs-/Ausgangs-Ressourcen in dem Datenzentrum verwendet werden können, um Raum- und Leistungseinsparungen zu ermöglichen. Der Computer weist ausschließlich flüssigkeitsgekühlte Gestelle 440 und luftgekühlte Gestelle 432, 434 auf. Die ausschließlich flüssigkeitsgekühlten Gestelle 440 enthalten einen Server mit einem externen Eingang/Ausgang 444, der üblicherweise einen Speicher 402, einen Prozessor 414, I/O-Struktur-Vorrichtungen 446 und Netzwerk-Struktur-Vorrichtungen 448 umfasst. Die luftgekühlten Gestelle 432 enthalten externe Eingangs-/Ausgangsprodukte 420, die üblicherweise Eingangs-/Ausgangsstrukturvorrichtungen 436 und Eingangs-/Ausgangskarten 408 umfassen. Die luftgekühlten Gestelle 434 umfassen eine Sekundärspeichervorrichtung 412, herkömmliche Server 410 und Eingabe- und Anzeigevorrichtungen 416. Die sekundäre Speicherung 412, die herkömmlichen Server 410, die Eingabe- und Anzeigevorrichtungen 416, die Eingangs-/Ausgangskarten 408 und die Netzwerk-Struktur-Vorrichtungen können unter Verwendung eines Netzwerks 418 verbunden sein, wie z. B. dem Internet oder einem anderen Typ eines Computers- oder Telefonnetzes. Die Eingangs-/Ausgangsstrukturvorrichtungen 446 auf den ausschließlich flüssigkeitsgekühlten Gestellen 440 und die Eingangs-/Ausgangsstrukturvorrichtungen 436 auf den luftgekühlten Gestellen 432 können unter Verwendung einer optischen Eingangs-/Ausgangsstruktur 450 verbunden sein.
  • Der Speicher 402 kann einen Direktzugriffsspeicher (RAM; RAM = random access memory) oder ähnliche Typen von Speicher umfassen. Die sekundäre Speicherungsvorrichtung 412 kann ein Festplattenlaufwerk, Diskettenlaufwerk, CD-ROM-Laufwerk, Flash-Speicher oder andere Typen von nichtflüchtiger Datenspeicherung umfassen und kann verschiedenen Datenbanken oder anderen Ressourcen entsprechen. Der Prozessor 414 kann Anweisungen ausführen, um die Verfahrensschritte auszuführen, die hierin beschrieben sind. Diese Anweisungen können in dem Speicher 402 oder dem Sekundärspeicher 412 gespeichert sein oder können von dem Internet oder einem anderen Netzwerk empfangen werden. Eingabe- und Anzeigevorrichtungen 416 können jegliche Vorrichtung zum Eingeben von Daten in den Computer 400 umfassen, wie z. B. eine Tastatur, ein Tastenfeld, eine Cursorsteuerungsvorrichtung, einen Berührungsbildschirm bzw. Touchscreen (möglicherweise mit einem Stift) oder ein Mikrophon und jeglichen Typ einer Vorrichtung zum Präsentieren eines visuellen Bildes, so wie z. B. einen Computermonitor, eine Flat-Screen-Anzeige oder ein Anzeigefeld. Eine Ausgabevorrichtung, die mit den Eingangs-/Ausgangskarten 408 verbunden ist, kann jeglichen Typ einer Vorrichtung zum Präsentieren von Daten in einem Druckkopieformat umfassen, wie z. B. einen Drucker, und andere Typen von Ausgabevorrichtungen, die Lautsprecher oder jegliche Vorrichtung zum Bereitstellen von Daten in Audioform umfassen. Der Computer kann möglicherweise mehrere Eingabevorrichtungen, Ausgabevorrichtungen und Anzeigevorrichtungen umfassen.
  • Obwohl der Computer mit verschiedenen Komponenten gezeigt ist, wird ein Fachmann auf dem Gebiet erkennen, dass der Computer zusätzliche oder unterschiedliche Komponenten enthalten kann. Zusätzlich dazu, obwohl Aspekte einer Implementierung entsprechend dem Verfahren zum Bereitstellen physisch getrennter Rechen- und I/O-Ressourcen in dem Datenzentrum, um Raum- und Leistungseinsparungen zu ermöglichen, derart beschrieben sind, dass sie in einem Speicher gespeichert sind, wird ein Fachmann auf dem Gebiet erkennen, dass diese Aspekte auch auf anderen Typen von Computerprogrammprodukten oder computerlesbaren Medien gespeichert sein können oder von diesen gelesen werden können, wie z. B. sekundären Speicherungsvorrichtungen, die Festplatten, Disketten oder CD-ROM umfassen; oder andere Formen eines RAM oder ROM. Das computerlesbare Medium kann Anweisungen zum Steuern des Computers umfassen, um ein bestimmtes Verfahren auszuführen.

Claims (15)

  1. Ein System zum Bereitstellen physisch getrennter Rechen- und Eingabe-/Ausgabe-(I/O-)Ressourcen in einem Datenzentrum, das folgende Merkmale aufweist: ein Rechengestell (110) einer Serverinfrastruktur zum Häusen von einer oder mehreren Rechenressourcen, wobei das Rechengestell (110) eine Flüssigkeitskühlung für die eine oder die mehreren Rechenressourcen verwendet und in einem flüssigkeitsgekühlten Datenzentrumsraum (1100) angeordnet ist; ein I/O-Gestell (150), das entfernt von dem Rechengestell (110) in einem luftgekühlten Datenzentrumsraum (1500) angeordnet ist, zum Häusen von einer oder mehreren I/O-Ressourcen, wobei das I/O-Gestell (150) eine Luftkühlung für die eine oder die mehreren I/O-Ressourcen verwendet; und Optikkabel (214, 264), die eine Kommunikation zwischen der einen oder den mehreren Rechenressourcen und der einen oder den mehreren I/O-Ressourcen ermöglichen.
  2. Das System gemäß Anspruch 1, bei dem das Rechengestell (110) ein oder mehrere Rechengestell-Elektrisch-zu-Optisch-(EO-)Umwandlungsvorrichtungen (112) an der Vorderseite (130) des Rechengestells (110) umfasst, um die Optikkabel (214, 264) zu verbinden.
  3. Das System gemäß Anspruch 1 und 2, bei dem das Rechengestell (110) ein oder mehrere Wärmerohre (104) umfasst, die Wärme von der einen oder den mehreren Rechenressourcen zu einem Wärmetauscher (140) leiten, der eine oder mehrere Kälteplatten (102) umfasst, die an der Rückseite des Rechengestells (110) angeordnet sind.
  4. Das System gemäß Anspruch 3, bei dem die eine oder die mehreren Kälteplatten (102) trennbar sind und bei dem die Flüssigkeitskühlung an der Rückseite des Rechengestells (110) auftritt.
  5. Das System gemäß Anspruch 1 und 2, bei dem das I/O-Gestell (150) eine oder mehrere I/O-Gestell-Elektrisch-zu-Optisch-(EO-)Umwandlungsvorrichtungen (162) an der Vorderseite (170) des I/O-Gestells (150) umfasst, um die Optikkabel (214, 264) zu verbinden.
  6. Das System gemäß Anspruch 1 und 2, bei dem eine Luftkühlung an dem I/O-Gestell (150) auftritt, wobei kühle Luft an der Vorderseite (170) des I/O-Gestells (150) eintritt und heiße Luft an der Rückseite (180) des I/O-Gestells (150) austritt.
  7. Das System gemäß Anspruch 1 und 2, das ferner ein Optikkabelmezzanin (240) zum Häusen der Optikkabel (214, 264) aufweist.
  8. Das System gemäß Anspruch 1 und 2, bei dem die eine oder die mehreren Rechenressourcen eine zentrale Verarbeitungseinheit (CPU) und einen Speicher umfassen, und bei dem die eine oder die mehreren Rechenressourcen an der Vorderseite (130) des Rechengestells (110) angeordnet sind.
  9. Ein Verfahren zum Bereitstellen physisch getrennter Rechen- und Eingabe-/Ausgabe-(I/O-)Ressourcen in einem Datenzentrum, wobei das Verfahren durch einen Computer implementiert ist, der einen Prozessor umfasst, wobei das Verfahren folgende Schritte aufweist: Anwenden einer Flüssigkeitskühlung, unter Verwendung des Prozessors, an eine oder mehrere Rechenvorrichtungen, die an einem Rechengestell (110) einer Serverinfrastruktur angeordnet sind, wobei das Rechengestell (110) in einem flüssigkeitsgekühlten Datenzentrumsraum (1100) angeordnet ist; und Anwenden einer Luftkühlung, unter Verwendung des Prozessors, an eine oder mehrere I/O-Vorrichtungen, die an einem I/O-Gestell (150) angeordnet sind, wobei das I/O-Gestell (150) entfernt von dem Rechengestell (110) in einem luftgekühlten Datenzentrumsraum (1500) angeordnet ist, wobei die eine oder die mehreren Rechenvorrichtungen mit der einen oder den mehreren I/O-Vorrichtungen unter Verwendung von Optikkabeln (214, 264) kommunizieren.
  10. Das Verfahren gemäß Anspruch 9, das ferner das Verwenden von einer oder mehreren Rechengestell-Elektrisch-zu-Optisch-(EO-)Umwandlungsvorrichtungen (112) an der Vorderseite (130) des Rechengestells (110) aufweist, um die eine oder die mehreren Rechenvorrichtungen mit den Optikkabeln (214, 264) zu verbinden.
  11. Das Verfahren gemäß Anspruch 9 und 10, bei dem das Anwenden eines Flüssigkeitskühlschrittes das Verwenden von einem oder mehreren Wärmerohren (104) umfasst, um Wärme von der einen oder den mehreren Rechenvorrichtungen zu einem Wärmetauscher (140) zu leiten, der eine oder mehrere Kälteplatten (102) umfasst, die an der Rückseite des Rechengestells (110) angeordnet sind.
  12. Das Verfahren gemäß Anspruch 9 und 10, das ferner das Verwenden von einer oder mehreren I/O-Gestell-Elektrisch-zu-Optisch-(EO-)Umwandlungsvorrichtungen (162) an der Vorderseite (170) des I/O-Gestells (150) aufweist, um die I/O-Vorrichtungen mit den Optikkabeln (214, 264) zu verbinden.
  13. Ein Serversystem mit separaten Rechen- und Eingabe-/Ausgabe-(I/O-)Ressourcen in einem Datenzentrum, das folgende Merkmale aufweist: ein Rechengestell (110) zum Häusen von einer oder mehreren Rechenvorrichtungen, wobei das Rechengestell (110) einen Wärmetauscher (140) mit einer oder mehrerem Kälteplatten (102) an der Rückseite des Rechengestells (110) umfasst, um eine Flüssigkeitskühlung für die eine oder die mehreren Rechenvorrichtungen bereitzustellen, wobei das Rechengestell (110) in einem flüssigkeitsgekühlten Datenzentrumsraum (1100) angeordnet ist; ein I/O-Gestell (150), das entfernt von dem Rechengestell (110) in einem luftgekühlten Datenzentrumsraum (1500) angeordnet ist, zum Häusen von einer oder mehreren I/O-Vorrichtungen, wobei das I/O-Gestell (150) eine Luftkühlung für die eine oder die mehreren I/O-Vorrichtungen verwendet; und Optikkabel (214, 264), die eine Kommunikation zwischen der einen oder den mehreren Rechenvorrichtungen und der einen oder den mehreren I/O-Vorrichtungen ermöglichen.
  14. Das Serversystem gemäß Anspruch 13, bei dem das Rechengestell (110) eine oder mehrere Rechengestell-Elektrisch-zu-Optisch-(EO-)Umwandlungsvorrichtungen (112) an der Vorderseite (130) des Rechengestells umfasst, um sie mit den Optikkabeln (214, 264) zu verbinden.
  15. Das Serversystem gemäß Anspruch 13 und 14, bei dem das Rechengestell (110) ein oder mehrere Wärmerohre (104) umfasst, die Wärme von der einen oder den mehreren Rechenvorrichtungen zu einem Wärmetauscher (140) leiten.
DE112009005129.4T 2009-12-28 2009-12-28 Ein System zum Bereitstellen von physisch getrennten Rechen- undI/0-Ressourcen in dem Datenzentrum, um Raum- undLeistungseinsparungen zu ermöglichen Active DE112009005129B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2009/069604 WO2011081620A1 (en) 2009-12-28 2009-12-28 A system for providing physically separated compute and i/o resources in the datacenter to enable space and power savings

Publications (2)

Publication Number Publication Date
DE112009005129T5 DE112009005129T5 (de) 2012-05-24
DE112009005129B4 true DE112009005129B4 (de) 2014-11-13

Family

ID=44226729

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112009005129.4T Active DE112009005129B4 (de) 2009-12-28 2009-12-28 Ein System zum Bereitstellen von physisch getrennten Rechen- undI/0-Ressourcen in dem Datenzentrum, um Raum- undLeistungseinsparungen zu ermöglichen

Country Status (5)

Country Link
US (1) US8982552B2 (de)
CN (1) CN102844725B (de)
DE (1) DE112009005129B4 (de)
GB (1) GB2488636B (de)
WO (1) WO2011081620A1 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011017386A1 (de) * 2011-03-30 2012-10-04 Fujitsu Technology Solutions Intellectual Property Gmbh Baugruppenträger, Server sowie Anordnung mit einem derartigen Baugruppenträger und zumindest einem Server
JP5824662B2 (ja) * 2011-11-08 2015-11-25 パナソニックIpマネジメント株式会社 ラック型サーバーを冷却する冷却装置とこれを備えたデータセンター
ES2613068T3 (es) 2011-11-22 2017-05-22 Le Groupe S.M. Inc. Sistema de refrigeración de centro de datos
CN104040395B (zh) 2012-01-06 2016-06-01 惠普发展公司,有限责任合伙企业 光学连接到电子装置的连接器模块
US20140164669A1 (en) * 2012-12-09 2014-06-12 Giovanni Coglitore Disaggregation of server components in a data center
US20140185225A1 (en) * 2012-12-28 2014-07-03 Joel Wineland Advanced Datacenter Designs
WO2014113451A1 (en) * 2013-01-15 2014-07-24 Intel Corporation A rack assembly structure
EP3022879B1 (de) * 2013-08-29 2020-12-30 Rockport Networks Inc. Verfahren und vorrichtung zur verwaltung von direkter verbindungsschalterverdrahtung und wachstum in computernetzwerken
WO2015183314A1 (en) 2014-05-30 2015-12-03 Hewlett-Packard Development Company, L.P. Supporting input/output (i/o) connectivity for a printed circuit assembly (pca) in a hot aisle cabling or a cold aisle cabling arrangement
US10606324B2 (en) * 2015-01-16 2020-03-31 Hewlett Packard Enterprise Development Lp Plenum to deliver cool air and route multiple cables
US10448543B2 (en) 2015-05-04 2019-10-15 Google Llc Cooling electronic devices in a data center
US9652429B2 (en) * 2015-09-16 2017-05-16 Onulas, Llc Horizontally expandable computing system
US10498451B2 (en) * 2015-10-01 2019-12-03 Hewlett Packard Enterprise Development Lp Removable module
US10034407B2 (en) * 2016-07-22 2018-07-24 Intel Corporation Storage sled for a data center
US10326661B2 (en) 2016-12-16 2019-06-18 Microsoft Technology Licensing, Llc Radial data center design and deployment
US11076509B2 (en) 2017-01-24 2021-07-27 The Research Foundation for the State University Control systems and prediction methods for it cooling performance in containment
US10842053B2 (en) * 2017-04-05 2020-11-17 Hewlett Packard Enterprise Development Lp Electronic component cooling

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030200330A1 (en) * 2002-04-22 2003-10-23 Maxxan Systems, Inc. System and method for load-sharing computer network switch
US20060187639A1 (en) * 2005-02-23 2006-08-24 Lytron, Inc. Electronic component cooling and interface system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6619697B2 (en) * 2000-12-27 2003-09-16 Nkf Kabel B.V. Y-branch splittable connector
US6816642B1 (en) * 2002-03-01 2004-11-09 Optical Communication Products, Inc. Apparatus and methods for using fiber optic arrays in optical communication systems
US7373268B1 (en) * 2003-07-30 2008-05-13 Hewlett-Packard Development Company, L.P. Method and system for dynamically controlling cooling resources in a data center
US7647787B2 (en) * 2004-04-22 2010-01-19 Hewlett-Packard Development Company, L.P. Upgradeable, modular data center cooling apparatus
US7596476B2 (en) 2005-05-02 2009-09-29 American Power Conversion Corporation Methods and systems for managing facility power and cooling
US20070297136A1 (en) * 2006-06-23 2007-12-27 Sun Micosystems, Inc. Modular liquid cooling of electronic components while preserving data center integrity
US7564685B2 (en) * 2006-12-29 2009-07-21 Google Inc. Motherboards with integrated cooling
US7477514B2 (en) * 2007-05-04 2009-01-13 International Business Machines Corporation Method of facilitating cooling of electronics racks of a data center employing multiple cooling stations
US20090086432A1 (en) * 2007-09-27 2009-04-02 International Business Machines Corporation Docking station with closed loop airlfow path for facilitating cooling of an electronics rack
US8064200B1 (en) * 2008-04-16 2011-11-22 Cyan Optics, Inc. Cooling a chassis by moving air through a midplane between two sets of channels oriented laterally relative to one another
US7903925B2 (en) * 2008-08-29 2011-03-08 Corning Cable Systems Llc Fiber optic furcation assembly having feature(s) for cable management
US8416834B2 (en) * 2010-06-23 2013-04-09 International Business Machines Corporation Spread spectrum wireless communication code for data center environments

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030200330A1 (en) * 2002-04-22 2003-10-23 Maxxan Systems, Inc. System and method for load-sharing computer network switch
US20060187639A1 (en) * 2005-02-23 2006-08-24 Lytron, Inc. Electronic component cooling and interface system

Also Published As

Publication number Publication date
CN102844725A (zh) 2012-12-26
US8982552B2 (en) 2015-03-17
DE112009005129T5 (de) 2012-05-24
GB2488636A (en) 2012-09-05
GB2488636B (en) 2014-01-08
US20120134678A1 (en) 2012-05-31
GB201202586D0 (en) 2012-03-28
CN102844725B (zh) 2016-03-02
WO2011081620A1 (en) 2011-07-07

Similar Documents

Publication Publication Date Title
DE112009005129B4 (de) Ein System zum Bereitstellen von physisch getrennten Rechen- undI/0-Ressourcen in dem Datenzentrum, um Raum- undLeistungseinsparungen zu ermöglichen
EP3417684B1 (de) Gebläselose kühlerlose flüssig-luft-kühlung für elektronische racks für komponenten davon in datenzentren
DE112009004714B4 (de) Kühlanordnung für gedruckte schaltungsplatinen
US9949407B1 (en) Computer system with partial bypass cooling
US20100248609A1 (en) Assembly For Providing A Downflow Return Air Supply
DE102012220826A1 (de) Anlagenkühlmittel-Direktkühlung eines am Rack angebrachten Wärmetauschers
US20130194750A1 (en) Cooled Universal Hardware Platform
DE112018003705B4 (de) Kühlsystem für hochleistungscomputer
DE102021103491A1 (de) Universelles steckbares kühlsystem für rechenzentren
DE112008001875T5 (de) Ein modulares Computersystem hoher Dichte
DE202008018101U1 (de) Rückplatte eines Bladeservers, Bladeserver und Baugruppenträger
DE102015101304B3 (de) Rackserver für ein Serverrack
US9466964B1 (en) Multilevel cable management system
DE102004007641A1 (de) Computersystem
DE202014010695U1 (de) Montagegestell für die Anordnung von elektronischen Komponenten
TWI406624B (zh) 伺服器
CN108287395B (zh) 网络配线箱与数据中心机房模块
CN103744479B (zh) 一种八处理器系统以及服务器
CN106294062A (zh) 一种将服务器中计算功能和管理功能分离设计的方法
DE102005029477A1 (de) Kühlung eines mikroelektronischen Bauteils
DE202015105878U1 (de) Traktionsumrichter
DE102006036657A1 (de) Modularer mehrteiliger Industriecomputer
EP0813804A1 (de) Gerät der kommunikationsmesstechnik
DE69932252T2 (de) Geteilter rechner
CN218830467U (zh) 一种通过网络远程控制的rtk装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: HEWLETT PACKARD ENTERPRISE DEVELOPMENT LP, HOU, US

Free format text: FORMER OWNER: HEWLETT-PACKARD DEVELOPMENT COMPANY, L.P., HOUSTON, TEX., US

R082 Change of representative

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER, SCHE, DE

R081 Change of applicant/patentee

Owner name: HEWLETT PACKARD ENTERPRISE DEVELOPMENT LP, SPR, US

Free format text: FORMER OWNER: HEWLETT PACKARD ENTERPRISE DEVELOPMENT LP, HOUSTON, TEX., US

R082 Change of representative

Representative=s name: PROCK, THOMAS, DR., GB