Vor wenigen Wochen ist Bernd Dürrs Standardwerk „IT-Räume und Rechenzentren planen und betreiben“ neu aufgelegt worden. Wir präsentieren ausgewählte Kapitel daraus in gekürzter Form, heute geht es um die Power Usage Effectiveness (PUE), die zur Messung der Energieeffizienz herangezogen wird – aber nicht ganz unumstritten ist.

 

 

Neue, energiesparende und doch ausfallsichere Komponenten und ihre intelligente Anordnung im Rechenzentrum können viel Gutes in Sachen Energieeffizienz bewirken. Stromsparende Komponenten sind auch deshalb notwendig, weil die Energiekosten eines Rechenzentrums bereits nach fünf bis sieben Jahren die Investitionskosten überholen.

Es lohnt sich meistens, hochwertigere Komponenten einzusetzen. Deren Amortisationszeitraum liegt dabei häufig unter einem Jahr. Auch lohnt es sich, die Hardware auf der IT-Fläche näher unter die Lupe zu nehmen und auch hier auf energieeffizientere Geräte zu setzen. Der nachfolgend beschriebene PUE dient als Messeinheit zur Bewertung der Effizienz der in Rechenzentren eingesetzten Energie in der Infrastruktur. Er hat aber seine Tücken.

Macht der Power Usage Effectiveness Sinn?

Die von der Green Grid Organisation eingeführte PUE setzt die im RZ verbrauchte Energie ins Verhältnis zur Energieaufnahme der Informationstechnologie. Wird ein Wert zwischen 1 und 1,5 erreicht, spricht man schon von einem sehr energieeffizienten Rechenzentrum. Je niedriger also der PUE ist, desto energieeffizienter ist das Rechenzentrum.

Und jetzt kommt die Krux bei der Betrachtung: Der Wert ist nur aussagekräftig, wenn er im Jahresmittel errechnet wird. Im Winter ist logischerweise ein Rechenzentrum sehr effizient, wenn es mit indirekter freier Kühlung betrieben wird. Im Sommer ist das Rechenzentrum wegen der nötigen mechanisch erzeugten Kühlung (Kompressorbetrieb) sehr ineffizient.

Des Weiteren gibt es teilweise große Unterschiede zwischen dem ermittelten PUE-Wert und dem tatsächlichen bzw. gemessenen PUE-Wert. Der errechnete PUE-Wert geht von einer zuvor festgelegten Hardwareleistung im Rechenzentrum aus. Aus den Verlusten der Infrastruktur aus den Datenblättern bei Nennlast werden der Gesamtverlust und der PUE-Wert errechnet. Üblicherweise ist jedoch ein Rechenzentrum Leistungsschwankungen ausgesetzt, da Hardware dazukommt oder wieder ausgebaut wird. Zudem ist es oft von der notwendigen Rechenleistung abhängig, wie die Aufnahmeleistung der Hardware letztlich tatsächlich ist. Der ehrlichere PUE-Wert ist sicherlich der gemessene PUE-Wert, da er die tatsächlichen Leistungswerte der Hardware und der Infrastruktur misst.

 

Verbesserung der PUE

Es ist mit relativ geringem Aufwand möglich, den PUE-Wert im Nachkommabereich erheblich zu verbessern. Einige Beispiele dafür sind:

  • Doppelboden und Kabeldurchführungen gezielt abdichten sowie zwischen den Servern im Datenschrank Blindplatten einsetzen. So stellt man eine sehr gute Trennung zwischen kalter und warmer Luft her. Dies bewirkt zwar zunächst keine Verbesserung des PUE, allerdings steigt der Luftdruck im Doppelboden.
  • Durch den effizienteren Luftstrom kann im zweiten Schritt der Volumenstrom im Doppelboden reduziert werden. Um eine gute Klimatisierung zu erreichen reicht schon ein leichter Überdruck im Doppelboden. Ein Halbieren der Ventilatordrehzahl bei geregelten EC-Motoren bewirkt eine Senkung der Stromaufnahme um mehr als 80 Prozent. Eine Senkung des PUE ist die logische Folge.
  • Das Anheben der Rechneransaugtemperaturen auf 27 °C bewirkt eine weitere Optimierung. Bei Verwendung der freien Kühlung muss nämlich erst bei höheren Temperaturen in den gleitenden Übergang zum Kompressorbetrieb gewechselt werden. Eine weitere Anhebung der Temperatur bewirkt allerdings eine Verschlechterung des Gesamtenergieverbrauchs – auch wenn der PUE mit dieser Maßnahme verbessert würde – denn die Server müssten mit höheren Lüftergeschwindigkeiten & damit mit höherem Energiebedarf fahren. Hier gilt es, die optimalen Temperaturen näherungsweise zu bestimmen.

Die Stellschrauben zur Verbesserung des PUE sind also vielseitig. Kleine Maßnahmen können eine große Wirkung haben. Gleichfalls ziehen große Maßnahmen oft nicht den gewünschten Effekt der Einsparung nach sich. Es ist immer eine Frage des Gesamtsystems, welche Maßnahmen wirtschaftlich und technisch sinnvoll durchgeführt werden sollen.

 

Was kommt nach der PUE?

Wir steuern technisch auf eine Zeit zu, in der die Effizienz der Infrastruktur kaum noch verbessert werden kann. Doch wie geht es dann weiter?

Die Lösung liegt in der Hardware selbst. Hardwareentwickler müssen sich noch mehr Gedanken machen, wie bei gleicher Rechenleistung die Stromaufnahme und die Wärmeentwicklung verringert werden können. Oder wie zukünftig ganz auf die Lüfter in der Hardware verzichtet werden kann. Erste Geräte sind bereits auf dem Markt, die an der Oberfläche mittels Kühlmittel den Prozessor direkt kühlen.

In der Entwicklung sind derzeit Systeme, die direkt in den Prozessor eingreifen und an der Wärmequelle kühlen. Sicherlich wird es noch einige Zeit dauern, bis die Weiterentwicklungen der 3-D-Kühlung zur Marktreife gebracht sind. Jedoch ist der Trend eindeutig erkennbar und nicht mehr aufzuhalten. Wir kommen wieder dahin, wo wir schon einmal waren: der direkten Flüssigkeitskühlung in der Hardware.

Des Weiteren muss überlegt werden, ob das Rechenzentrum ggfs. innerhalb einer bestimmten Tageszeit mit weniger Rechnerleistung auskommen kann. Durch die erneuerbaren Energien Windkraft und Photovoltaik steht je nach Wetterlage unterschiedlich viel Energie zur Verfügung.

Es gibt also noch viel Potential, die Energiefresser zu reduzieren und damit die Umwelt und die Ressourcen zu schonen.

 

Über das Buch

Das Handbuch von Dipl.-Ing. (FH) Bernd Dürr lässt kein Detail aus dem RZ-Bau aus – die Tiefe der Darstellung verschiedener Aspekte, angefangen bei der Standortwahl über bauliche Maßnahmen an bestehenden RZ, Stromversorgung und Sicherheitstechnik bis zum Management des Betriebs, ist beeindruckend.

In der Neuauflage des erstmals 2013 erschienenen Buches sind zahlreiche Themen dazugekommen. Darunter die Rechenzentrumsnorm DIN EN 50600 oder die „Begrünung“ von RZ durch noch höhere Energieeffizienz. Die verschiedenen Formen der Energieeinsparung bewegen die Branche wie kaum ein anderes Thema, war auf dem Rechenzentrumskongress future thinking im April zu beobachten. Entsprechend hoch ist die Bedeutung der Energie-Effizienz u.a. durch Luft-/Luft-Wärmetauscher und die Nutzung von natürlichen Energiequellen.

Weitere Kapitel widmen sich unter anderem der steuerlichen Absetzbarkeit, Versicherungen, Verkabelungssysteme und was die Rechenzentrumsnorm dazu sagt, die „Geheimnisse“ des Differenzstroms, zentraler Erdungspunkt, Selektivität und Neutralleiter oder auch Notstromtechnik.

Das 685-Seiten starke Handbuch „IT-Räume und Rechenzentren planen und betreiben“ von Bernd Dürr ist im Verlag Bau+Technik erschienen und unter der Nummer ISBN 978-3-7640-0626-6 zu bestellen.

 

 

 

Weitere Artikel dieser Serie:

IT-Verantwortliche sind in der Pflicht – Compliance

Erzeugt die DIN EN 50600 noch Unsicherheiten?

Rückmeldungen