Mit neuen Klimatisierungs-Strategien zu höherer Effizienz und niedrigeren Kosten

Heiß- und Kalt-Gänge und das Kyoto-Rad sind neue Kühltechnologien für das Data Center. Das erhöht die Effizienz und senkt die Kosten.

Wie sieht es bei Ihrer Klimatisierungs- oder Kühl-Strategie für das Data Center aus? Haben Sie einige Klimaanlagen...

am Laufen, die kontinuierlich kühle Luft durch löchrige Bodenplatten in Ihren erhöhten Boden pusten, um die Temperatur der Server-Racks auf einem angemessen Niveau zu halten? Wenn ja, verschwenden Sie viel Strom und Energie und somit bares Geld. Es gibt diverse neue Klimatisierungs-Mechanismen und -Technologien, die sich in kurzer Zeit auszahlen können und langfristig richtig Geld sparen.

Zunächst einmal sollten Sie sicherstellen, dass die Kühl-Temperatur im Data Center nicht zu niedrig ist. ASHRAE (American Society of Heating, Refrigeration and Air conditioning Engineers) bewertet seit dem Jahre 2004 die erträglichen Temperaturen für ein Data Center und gibt Empfehlungen und akzeptable Limits für die jeweiligen Typen aus.

Die maximale Obergrenze für die Temperatur im Data Center wurde im Jahre 2004 auf 25 Grad Celsius festgelegt. Im Jahre 2008 wurde die Zahl auf 27 Grad nach oben korrigiert. 2011 hat ASHRAE Rechenzentren dann schließlich in verschiedene Kategorien eingeteilt. Die empfohlene Temperatur blieb allerdings bei 27 Grad, allerdings wurde der maximale Wert für die akzeptable Wärme auf 45 Grad erhöht. Erst bei noch höheren Temperaturen konnte man vermehrt Hardware-Ausfälle beobachten. Nun muss man zwischen Notwendigkeit und Risiko abschätzen. Eine höhere Temperatur im Data Center bedeutet natürlich auch, dass man wesentlich weniger kühlen muss. Als Konsequenz brauchen Sie weniger Klimaanlagen, was sich wiederum in geringerem Stromverbrauch niederschlägt und somit direkt positiv auf den Geldbeutel auswirkt.

Die einfachste Methode, um Geld zu sparen, ist die Anzahl der laufenden Klimaanlagen zu reduzieren. Brauchen Sie nur die Hälfte an Kühl-Leistung, können Sie logischerweise die Hälfte der Klimaanlagen deaktivieren und das wirkt sich direkt auf den Stromverbrauch aus. Das gilt natürlich auch für die Wartungs-Kosten. Verwenden Sie Klimaanlagen mit variablen Geschwindigkeiten anstelle von fest eingestellten, können Sie ebenfalls sparen. Die Einheiten kühlen dann nur so schnell, dass die Räumlichkeiten des Data Centers auf der festgelegten Temperatur gehalten werden. Die Klimaanlagen laufen am effizientesten, wenn man sie auf 100 Prozent betreibt. Manche Anlagen mit variablen Geschwindigkeiten operieren mit Teil-Last nicht optimal.

Verwendet man deswegen Klimaanlagen mit festen Raten, um die „thermische Trägheit“ zu erreichen, kann das durchaus kosteneffizient sein. In diesem Fall kühlt man das Data Center weit unter die Ziel-Temperatur und schaltet sie dann ab. Nun erlaubt man dem Data Center, sich bis zum kritischen oder einem vorher definierten Punkt aufzuheizen. Ist dieses Limit erreicht, schaltet man die Klimaanlagen wieder an. Bei dieser Prozedur laufen die Einheiten unter Volllast und operieren somit mit höchster betrieblicher Effizienz. Sind sie in der Zwischenzeit abgeschaltet, verbrauchen die Geräte natürlich überhaupt keinen Strom.

Kühlmaßnahmen für das gesamte Volumen des Data Centers sind allerdings trotzdem Verschwendung. Es kommt dabei nicht darauf an, wie man die Luft anfänglich herunterkühlt. Die meiste kühle Luft wird niemals in Kontakt mit dem IT-Equipment kommen und somit ist die Klimatisierung ineffizient.

Abbildung 1: Warm- oder Hei�-Luftgang und Kalt-Luftgang

Kyoto-Rad und Chatsworth Tower: Halten Sie die Luft im Data Center kühl

Die Herangehensweise mit Warm- oder Heiß und Kalt-Luftgängen bewirkt, dass man weniger Volumen an Luft kühlen muss. Voraussetzung dafür ist allerdings, dass die Konfiguration stimmt, wie Sie in Abbildung 1 sehen.

Die Räume zwischen den Racks sind abgeschlossen. Über den Racks befindet sich ein „Dach“ und auf jeder Seite gibt es eine Tür. In die abgeschlossenen Räume bläst man kalte Luft. Damit keine kalte Luft aus den Racks entkommen kann, verwendet man Abdeckplatten. Mithilfe von Leitungsrohren führt man die kalte Luft zu den heißesten Teilen der Data-Center-Ausrüstung.

Die heiße Luft strömt ins Data Center und von dort nach draußen. Manchmal sammelt man sie auch und verwendet die warme Luft, um andere Bereiche im Gebäude damit zu heizen. Die Heißluft lässt sich mithilfe einer Pumpe ebenfalls nutzen, um Wasser zu erwärmen. Diese Systeme können sehr ausgeklügelt sein. Manchmal tut es aber auch eine „Do-it-yourself“-Lösung, indem man Polycarbonat als Dach für die Racks benutzt und Polypropylen-Folien als Türen.

Das Ziel ist es, jedes Rack in ein in sich geschlossenes System zu verwandeln. Das Volumen der zu kühlenden Luft sollte also so gering wie möglich sein. Allerdings können Administratoren von Data Centern auf weitere Methoden zurückgreifen. Zum Beispiel gibt es die Chatsworth Towers. Diese in sich abgeschlossenen Systeme bestehen innen aus einem 19“-Rack. Die Kühlung fließt dabei von unten nach oben, während diese Luft nicht mit dem Rest des Data Centers in Berührung kommt.

In manchen Klimazonen könnte man, sofern man das Data Center mit etwas höherer Temperatur betreibt, die Technik der Freien Kühlluftzufuhr nutzen. Dann wären überhaupt keine Klimaanlagen notwendig. Zum Beispiel könnte die gewünschte Betriebstemperatur für das Data Center 30°C sein und die Außentemperatur beträgt 25 Grad. Das ist möglicherweise kühl genug, um keine zusätzlichen Kühlanlagen installieren zu müssen. Die Luftfeuchtigkeit muss natürlich im angemessenen Rahmen bleiben.

Abbildung 2: Das Kyoto-Rad

Wenn Sie aber einfach externe Luft durch Rohre ins Data Center einleiten, kann das ineffizient sein. Vielleicht entstehen thermische Heißzonen (Hot Spots) oder es gelangen Staub und andere Verunreinigungen ins Data Center. An dieser Stelle helfen neue Designs, wie zum Beispiel das Kyoto-Rad (Abbildung 2).

In diesem Szenario rotiert ein gewelltes Metallrad mit einem Durchmesser von zirka drei Metern langsam durch einen zweigeteilten Raum. Die heiße Luft des Data Centers fließt durch einen Teil und transferiert dabei die Hitze an das Metall des Rads. Kalte Luft von Außen fließt durch den anderen Raum, entzieht dem Rad Hitze und gibt die Luft an die Umgebung ab. Die gekühlte Luft wird an das Data Center zurückgegeben und klimatisiert somit das Equipment.

Der Data-Center-Kreislauf ist dabei in sich geschlossen und es wird eine geringe Menge an Luft durch die Rotation des Rads eingeführt. Dabei gelangen aber nur sehr wenige Partikel oder Luftfeuchtigkeit ins Data Center oder werden von einem Bereich auf den anderen übertragen. Das Rad selbst agiert praktisch wie ein Filter.

Der Vorteil dieser Methode ist, dass Flügelrad und Motor bei der Kyoto-Kühlung nur sehr langsam laufen und somit wenig Wartung notwendig ist. Das komplette System braucht wenig Strom und lässt sich oftmals mit Solar-Energie oder als Backup mit Akkumulatoren betreiben. So ein System kann viele Jahre lang im Betrieb sein. Man rechnet mit einer minimalen Lebensdauer von 25 Jahren. Die Wartung ist möglicherweise nur ein schnelles Reinigen des Rades, das alle paar Monate anfällt. Den Motor sollten Sie natürlich auch dann und wann inspizieren.

Abbildung 3: Wasser-K�hlung

Wasserkühlung erleichtert die Kühlung enorm

Neben diesen Luft-basierten Methoden gibt es auch adiabatische Kühlung. Dabei macht man sich verdunstendes Wasser zunutze (Abbildung 3).

Wasserkühlung ist vor allem in wärmeren Klimazonen effizient. Dort kann man die Hitze der Umgebung zusammen mit nassen Filtern nutzen, um einen Verdunstungsprozess einzuleiten. Die Luft kühlt man, indem man Sie durch die Filter zieht. Es handelt sich hier um ein System mit zwei Kammern. Die Filter stellen dabei die Abgrenzung zwischen der Außenluft und dem internen Data Center dar. Allerdings muss man die Filter regelmäßig austauschen und Partikel-Verschmutzung entfernen. Weiterhin müssen Administratoren die Luftfeuchtigkeit im Auge behalten, damit es am IT-Equipment nicht zu Kondensierung kommt.

Wenn Unternehmen in warmen Gebieten eine hohe Gerätedichtung mit großer Hitzeentwicklung verwenden wollen, könnte direkte Wasserkühlung die Lösung sein. IBM zum Beispiel setzte in der Vergangenheit auf Wasserkühlung. Die Methode wurde allerdings extrem verbessert und das Niveau in den Supercomputer-Systemen Aquasar und Liebniz SuperMUC ist außergewöhnlich hoch. Das System adressiert all die Probleme, die man in bei der Kombination aus Wasser und Elektrizität in einem Data Center hat. Man verwendet Unterdruck und keine Pumpen, um Wasser um das System zirkulieren zu lassen und keine Pumpen, die es durchdrücken. Sollte es in diesem Fall zu einem Leck kommen, wird Luft in das System gesogen und kein Wasser in das Data Center gedrückt. Fortschrittliche Sensoren melden schnell, wenn es ein Leck gibt. Eine modulare Konstruktion erlaubt zudem die Reparatur, während das System weiterhin läuft.

Das System verwendet einen Warmwasser-Eingang für die Kühlflüssigkeit, was etwas seltsam wirken mag. In einem sehr zielgerichteten Kühlsystem kann Wasser aber mit einer Temperatur von mehr als 30 Grad CPUs so herunterkühlen, dass diese innerhalb der Betriebsparameter operieren. Die ausgehende Wassertemperatur beträgt dann um die 45 Grad. In Kombination mit Wärmetauschern wird das heiße Wasser in anderen Teilen des Gebäudes verwendet, was die Energiekosten um bis zu 40 Prozent reduzieren kann. Manchmal lässt sich allerdings noch weit mehr Geld sparen, wenn das heiße Wasser im restlichen Gebäude genutzt werden kann.

Spendieren Sie der Hardware ein erfrischendes Bad zur Kühlung

Wer ein höheres Niveau an Kühlung mit Flüssigkeit benötigt, kann auf komplett eingetauchte Systeme setzen. Unternehmen wie Icetope und Green Revolution Cooling stellen Systeme zur Verfügung, die einen kompletten Server umgeben. Auch andere Arten an IT-Equipment lassen sich damit abdecken. Dafür verwenden die Firmen eine nicht elektrisch, aber Wärme leitende Flüssigkeit. Somit führt man die Hitze von allen gewünschten Komponenten im Data Center ab. Diese Systeme eignen sich ideal für GPU-Server (Graphics Processing Unit oder Grafikkarten-Prozessoren), die aus hunderten an Kernen bestehen und sehr dicht aneinander liegen. Auch für hohe Computing-Anforderungen mit einer hohen Dichte an CPUs eignen sich solche Maßnahmen. Diese Systeme können mit mehr als 100 kW pro Bad umgehen. Letzteres umfasst in der Regel ein eingeschlossenes Rack. Einige dieser Tauch-Systeme laufen mit einer Flüssigkeits-Temperatur von 60°C.

Lüfter braucht man in einem eingetauchten System nicht, wodurch sich wiederum Energie sparen lässt. Die verwendeten Flüssigkeiten sind sehr viel effizienter, wenn es um den Abtransport von Hitze geht als Luft oder Wasser. Deswegen können Sie die Hardware mit höheren Temperaturen betreiben. Die von der Flüssigkeit aufgenommene Hitze lässt sich wiederum für das Heizen des restlichen Gebäudes einsetzen.

Das Data Center ist kühl, und jetzt?

Die hier vorgestellten Systeme sind die hauptsächlich eingesetzten, um diverse Anforderungen an die Kühlung des Data Centers mit unterschiedlichen Umgebungsbedingungen zu adressieren. Monitoring ist allerdings essenziell, um die Betriebstemperaturen immerzu im Auge zu behalten.

An dieser Stelle hilft DCIM (Data Center Infrastructure Management). Der Einsatz thermischer Sensoren und Infrarot-Detektoren enthüllt Hot Spots. Computational Fluid Dynamics (CFD) erschafft „Was wenn?“-Szenarien. Somit sehen Sie, wie neue kühle Strömungen und verschiedene Eingangs-Temperaturen die diversen Systeme beeinflussen.

Sobald eine DCIM-Lösung installiert ist, identifizieren Sie mit kontinuierlichem Monitoring die Heißzonen recht schnell. Somit können Sie angemessen reagieren, Systeme verlangsamen, abschalten oder wenn notwendig ersetzen. In vielen Fällen indiziert das plötzliche Auftauchen eines Hot Spots den bevorstehenden Ausfall von Equipment. Können Administratoren rechtzeitig eingreifen, also bevor ein Ausfall passiert, garantiert das hohe eine System-Uptime und -Verfügbarkeit.

Die Welt der Data Center ändert sich am laufenden Band. Sehen Sie die Klimatisierung nur aus einer Perspektive, verschwenden Sie mit Sicherheit Geld. Kombinieren Sie aber neue Leitfäden mit neuen Herangehensweisen, resultiert das in effizientere Klimatisierung des Data Centers. Somit sparen Sie Geld, indem die Kosten für Betrieb und Wartung reduziert werden.

Über den Autor:

Clive Longbottom ist Mitgründer und Service-Leiter der IT-Research- und Analyse-Firma Quocirca. Longbottom bringt mehr als 15 Jahre Berufserfahrung in diesem Bereich mit sich. Außerdem verfügt er über Hintergrundwissen in Sachen Chemische Technik und hat an Automation und Kontrolle von gefährlichen Stoffen gearbeitet. Weiterhin sind seine Spezialgebiete Dokumenten- und Projekt-Management.

Folgen Sie SearchDataCenter.de auch auf Facebook, Twitter und Google+!

Artikel wurde zuletzt im Mai 2013 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Data-Center-Kostenplanung

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchNetworking.de

SearchEnterpriseSoftware.de

Close