Stulz und Next Generation Data


Cool bleiben - Effiziente Kühlung von High-Density-Systemen

Die Kühlung ist neben dem Leistungs- und Energiemanagement für die Resilienz und Verfügbarkeit eines Rechenzentrums sowie zur Bestimmung des Gesamt-PUE-Werts einer Anlage von kritischer Bedeutung. In der Regel entfallen 40 % oder mehr des gesamten Stromverbrauchs in einem Rechenzentrum auf die Kühlung. Eine weitestgehende Optimierung und Reduzierung des Kühlbetriebs ist deswegen aus Sicht der Kosten, der Umwelt und der gesetzgeberischen Vorgaben erstrebenswert.

Hierfür bieten sich verschiedene Möglichkeiten und Alternativen an - von denen sich einige nur mit einer Modernisierung und dem Austausch der Altgeräte realisieren lassen – z. B. die Nutzung klimatisch kühlerer Standorte, die eine direkte Luftkühlung und evaporative Techniken zulassen, die Installation intelligenter, vorausschauender Kühlsysteme; der Einsatz von Wasser-, Flüssigkeits- oder Nano-Kühltechniken; nebst den notwendigen Warm- oder Kaltgangeinhausungstechniken.

Ein wichtiger Schritt zur Verbesserung der Kühlleistung ist, nicht mehr mit Klimageräten zu kühlen, bei denen CRACS Kaltluft durch Doppelböden leiten. Besser ist eine Warmgang-/Kaltgangkonfiguration mit in Reihen angeordneten Racks, auf denen die Abluftöffnungen der Server zueinander ausgerichtet sind und den Warmgang bilden. In Verbindung mit einer Trennung der warmen und kalten Luftströme, entweder durch eine Warm- (HACS) oder eine Kaltgangeinhausung (CACS), können bei dieser Methode die Kühlsysteme auf höhere Temperaturen eingestellt werden, wodurch Energie eingespart und trotzdem die für die IT-Anlage sichere Betriebstemperatur hergestellt wird.

Bei der CACS-Methode wird, häufig in Kombination mit herkömmlichen Klimageräten, der Kaltgang eingehaust und damit die warme von der kalten Luft getrennt, wobei der verbleibende Datenraum zu einem einzigen Warmluftraum wird. Durch Vorhänge am Ende des Kaltgangs oder mit Hilfe von Türen und Decken kann die Vermischung der Luftströme weiter reduziert werden.

CACS stellt im Vergleich zur Kühlung nur mit Klimageräten sicherlich eine enorme Verbesserung dar, weist aber von Natur aus Leistungsschwächen auf. Grund dafür sind die Distanzen und Drücke, die überwunden bzw. aufgebracht werden müssen, wofür viel Energie benötigt wird, damit ausreichend abgekühlte Luft von den Klimageräten (CRACS) zu den Servern geführt werden kann.

Auch bei CACS gibt es aufgrund der eingeschränkten Verteilung von genügend kalter Luft durch die Doppelböden Beschränkungen der Rack-Kühldichten (über 6 kW). Höhere Kühldichten erfordern eine größere Luftmenge und das Erzeugen und Verteilen dieser größeren Mengen kalter Luft, um so genannte Hotspots zu vermeiden, ist kostspielig.

Zum Kühlen von High-Density Racks können HACS mit Türen, Decken, Reihenkühlsysteme und drehzahlvariable, temperaturgeregelte Ventilatoren zur Sicherstellung der Serververfügbarkeit eine effizientere Lösung darstellen. HACS sind abgeschlossene 'Raum-im-Raum'-Systeme, welche die Server-Abluft aus dem gesamten Datenraum abziehen und Kaltluft bestimmten Racks oder Reihen gezielt zuführen.

Durch höhere Rücklauftemperaturen stellen HACS außerdem eine Maximierung der Kühlkapazitäten bei gleichzeitiger Senkung des Stromverbrauchs (auch der Ventilatoren) sicher. Neben der Energieeinsparung wird hiermit die Leistungsfähigkeit an Tagen mit freier Kühlung optimiert. Darüber hinaus lässt sich HACS - anders als CACS - ohne Auswirkungen auf die vorhandene Kühlarchitektur installieren, denn es hat keinen Einfluss auf die Temperatur im Rechnerraum insgesamt.

 

Jeder Drycooler kann bis zu 1,2 MW Wärme verarbeiten.

Es ist ein allgemeines Missverständnis, dass Racks mit geringerer Dichte hinsichtlich Strom und Kühlung kostengünstiger betrieben werden können, als solche mit höherer Dichte, denn tatsächlich ist das Gegenteil der Fall. Der Betrieb einer geringeren Zahl von High-Density Racks führt gegenüber solchen mit geringerer Dichte zu niedrigeren Gesamtbetriebskosten, da die Rechenleistung weit höher ist und gleichzeitig die Ressourcen des Rechenzentrums (Schaltgerät, UPS, Strom, Kühltürme und Pumpen, Chiller, Beleuchtung usw.) weit weniger stark beansprucht werden.

Da die Server der nächsten Generation bei höheren Temperaturen betrieben werden können, als bisherige Lösungen, wird die Nachfrage nach den notwendigen intelligenten und energieeffizienten Kühlsystemen weiter steigen. Diese Entwicklung wird unter anderem durch den zunehmenden Einsatz von High-Density Racks begünstigt – einige von ihnen verbrauchen bereits 60 kW oder mehr - mit denen der wachsende Rechen- und Speicherbedarf für Clouds, Big Data und HPC unterstützt wird.

Angesichts dieser Herausforderungen schreibt es die optimale Praxis vor, dass die Experten der Rechenzentren und ihrer technischen Anlagen in zunehmendem Maße Big-Data-Analysen und Überwachungstechniken in Echtzeit im Rechenzentrum selbst anwenden müssen - zur Optimierung der Kühlsysteme und Aufrechterhaltung der richtigen Betriebstemperatur für die IT-Anlagen, ohne befürchten zu müssen, dass Leistung und Verfügbarkeit verloren gehen.

Wichtig hierfür und für die Maximierung der Energieeffizienz und des PUE-Werts des gesamten Rechenzentrums sind integrierte Plattformen zur Energieüberwachung und für das Energiemanagement, in die das Gebäudemanagementsystem, PDUs und SCADA integriert werden können. Bisher hat man in Rechenzentren verschiedene Systeme mit erheblich geringerem Wirkungsgrad eingesetzt. Ein modernes System spart Tausende Euro durch geringere Energiekosten und Minimierung der Umweltauswirkungen, wobei gleichzeitig durch vorausschauende Wartung ein Maximum an Verfügbarkeit gewährleistet werden kann.

 

Intelligente Möglichkeiten

Seit der Eröffnung in 2009 hat Stulz UK die Kühlsysteme für das Mega Data Centre von NGD in Südwales geliefert, einem Tier-3-Rechenzentrum, das auf rund 70.000 m2 sowohl Private- als auch Shared-Colocation Datenräume anbietet.

Mit bis zu 180 MW aus einem direkten SuperGrid-Anschluss erfreut sich die Anlage zunehmender Popularität bei Unternehmen und Dienstanbietern, die in hochdichten Umgebungen arbeiten, beispielsweise HPC und Cloud.

Vor zwei Jahren reagierte NGD auf die ständig wachsende Nachfrage seiner Kunden nach einer Senkung des PUE-Werts und suchte nach alternativen Lösungen für die ursprünglich von Stulz gelieferten Direktexpansionssysteme. Hierzu gehörte ein adiabates System (IAC), und obwohl dieses sehr energieeffiziente PUE-Werte zeigte, hat man es wegen der umfangreichen infrastrukturellen Arbeiten, der großen Stellfläche/geringen Kühlleistung, dem hohen Wasserverbrauch mit erforderlicher Wiederaufbereitung, sowie aus Kostengründen abgelehnt.

 

NGD (Next Generation Data) hat seinen Sitz zwischen Cardiff und Newport und ist Europas größtes Rechenzentrum und der führende Anbieter sicherer Rechenzentren in Großbritannien.

 

Stulz ersetzte daraufhin die DX-Systeme durch seine neueste Kühl-Lösung, welche die optimale Betriebsweise intelligent auf die jeweiligen Außenbedingungen und die Erfordernisse des Datenraums abstimmt. Mit dieser Lösung ist das System in der Lage, die meiste Zeit des Jahres im Freikühlmodus zu arbeiten, eine Zusatzkühlung kommt nur bei höheren Außentemperaturen zum Einsatz.

Die skalierbare Systemauslegung basiert auf dem glycolfreien GE-System und verfügt über eine spezielle Rohrleitungsanordnung: ein verlustarmer Verteiler innerhalb des Trockenkühlers und individuelle, flexible Rohre zur Verteilung an jede einzelne CRAC-Einheit. Die Rohre sind zweifach isoliert und verfügen über ein Innen- und ein Außenrohr. Bei Leckstellen im Innenrohr wird die Leckage im Außenrohr zurückgehalten, das mit eigener Leckerkennung ausgestattet ist. Die Rohre lassen sich in beliebiger Länge herstellen, wodurch Verbindungsstellen auf ein Minimum beschränkt sind, und können in einem Bruchteil der Zeit installiert werden, die man für ein herkömmliches Rohrsystem benötigen würde.

Das erste GE-System wurde in einem Zeitraum von fünf Wochen installiert und in Betrieb genommen, der erreichte annualisierte PUE-Wert lag bei 1.18. Die Systemkosten waren im Vergleich zum IAC fast 60 % niedriger, der ROI für das GE-System betrug drei Jahre (beim IAC sechs Jahre).

Dank dieser intelligenten Kühl-Lösung konnte NGD mit den Kundenforderungen Schritt halten und Lösungen anbieten, die vom Standardrack mit 4 kW bis hin zu 60 kW und mehr je Rack reichen, mit einer Resilienz von mindestens N + 20 %.

 

Kontaktieren Sie uns

STULZ GmbH
Holsteiner Chaussee 283
22457 Hamburg 

Zentrale: +49 40-5585-0
Fax: +49 40-5585-352

Anfahrt & Kontaktformular
Nach oben