Effizienter RZ-Betrieb aus Sicht eines Hosters

Co-Autor: Sebastian Färber

Im Februar haben wir eine Pressemeldung darüber veröffentlicht, dass wir unseren CO2-Ausstoß  trotz Wachstum um 16% gesenkt haben: Der Hauptbeitrag kam durch ca. 11% Einsparung  im Rechenzentrum. Auf die Pressemeldung hin haben uns viele ungläubige Fragen ereilt wie wir das – trotz gestiegener Kunden- und Rechnerzahlen – erreicht haben.  Geschafft haben wir dies nicht durch eine einzige, sondern durch ein ganzes Bündel von Maßnahmen.  Dabei haben wir ein paar Dinge gelernt die wir gern teilen möchten.

Erkenntnis 1: Laufend konsolidieren. Offen sein für neue Technologien.

„Never change a running system“. Diese Admin-Weisheit mag aus Erfahrung geboren sein. Allerdings steht sie der Entwicklung in der modernen IT-Welt entgegen:  Durch Technologiesprünge lassen sich erhebliche Effizienzgewinne erzielen. Jede neue CPU-Generation bietet ein besseres Verhältnis Rechenpower/Stromverbrauch, 2,5“ Serverplatten versprechen gleiche Leistung bei sinkender Leistungsaufnahme und Neuentwicklungen wie Solid State Disks schaffen völlig neue Regeln. Nur wenn die eigene Systemlandschaft flexibel gehalten wird und der Mut zur konstanten Änderung vorhanden ist bleibt man auf der Höhe der Zeit. Eine flexible Systemlandschaft setzt voraus, dass einfache, nachvollziehbare Lösungen gesucht und ausreichend gut dokumentiert werden – die nächste Migration kommt bestimmt.

Ein Beispiel: Mit der  Verfügbarkeit servertauglicher Solid State Disks wie der Intel X25-E wurden die Karten für IO-sensitive Anwendungen neu gemischt: In Bereichen wo nur wenig Speicherplatz benötigt wird ergibt sich ein Verhältnis von Anschaffungs- und Betriebskosten zu IOPS/sec das vorher nicht möglich gewesen wäre. Ein typisches Anwendungsgebiet hierfür sind stark belastete Datenbanken sowie Mailserver. Durch den Einsatz von SSDs haben wir Anfang 2009 die Zahl unserer Posteingangsserver von mehr als 40 auf 10 Geräte reduziert und gleichzeitig mehr Kapazität geschaffen.  Mit dem Start einer neuen Intel CPU-Generation haben wir die Zahl unserer Spamfilter  halbiert.

Je nach Anwendungsgebiet können die Sprünge enorm sein: Ein System mit einem einzigen Intel Core i7 ist in einigen Anwendungsgebieten einem Dual-Xeon System der vorherigen Generation(Core-Architektur) überlegen.

Erkenntnis 2: Auf  wenige Systemtypen beschränken. Diese optimieren und selber nachmessen!

Einige Admins geraten in die Versuchung für jeden Anwendungsfall das „perfekte“ System zu suchen und zu bestellen. Das führt aber zu einer extrem heterogenen Systemlandschaft was sich für einen effizienten RZ-Betrieb als Albtraum erweist. Daher sollte man mit möglichst wenigen System-Basistypen auskommen, die Plattform dafür jedoch umso sorgfältiger auswählen. Diese Basistypen können dann intensiv auf Stromverbrauch und Kühlung optimiert werden. Dabei sollte man niemals auf den Peak der Systembeanspruchung optimieren, sondern auf den typischen Auslastungsgrad. Systeme die zu einem Großteil mit wenig Auslastung laufen müssen auch auf genau diesen Idle-Fall optimiert werden! Wenn die eingesetzten Netzteile ab 85% Auslastung eine Effizienz von 90% haben  nützt es wenig, solange das Netzteil größtenteils bei 30% Auslastung betrieben wird. Den Auslastungsgrad sollte man niemals abschätzen sondern immer selbst nachmessen! Sofern man eine größere IT-Landschaft hat: Nie einzelne Systeme isoliert betrachten, sondern immer ganze, vollausgebaute Racks optimieren – darauf kommt es schließlich an. Den Herstellerangaben nie blind vertrauen sondern immer genau den eigene Anwendungsfall selbst nachmessen.

Bei domainfactory haben wir für unsere internen Systeme nur noch zwei Basistypen: Solche für CPU-gebundene Anwendungen und solche für IO-gebundenen Anwendungen. Beide Basistypen lassen sich mit unterschiedlichen Disks und unterschiedlich viel RAM bestücken. Wir setzen auf Blade-Technologie und nutzen die stromsparenden Versionen der Intel-Xeon CPUs. Haben wir Systeme die nicht annähernd die Power eines solchen Blades brauchen, betreiben wir es zusammen mit anderen Systemen virtualisiert auf der gleichen Hardware. Wir meiden aus Zuverlässigkeits- und Effizienzgründen kleine, schnelldrehende Lüfter wo immer es möglich ist.

In 2009 haben wir eine völlig neue Plattform für unsere ManagedServer entworfen. Wir sind dazu übergegangen nicht mehr einzelne Systeme zu betrachten sondern ein ganzes Rack als „großes Bladecenter“ zu begreifen. Einige Komponenten wie Netzteile und Kühlung sind daher nicht mehr pro Server sondern pro Rack ausgelegt. Dies bringt uns Vorteile sowohl bei der Zuverlässigkeit als auch bei der Energieeffizienz.

Erkenntnis 3: Virtualisierung ist gut – aber kein Allheilmittel.

Mit der Hilfe von Virtualisierung ist es sehr einfach möglich Hardwareplattformen zu wechseln ohne die darunter liegende Betriebssystem-Installation anzufassen. Das ist toll! Besonders in größeren Unternehmen wo die Anforderungen an die IT-Landschaft unvorhersehbar und oft von unternehmenspolitischen Gründen geprägt sind kann Virtualisierung sehr viel helfen.

Als Hoster sollte man es jedoch gewohnt sein hochoptimiert zu arbeiten. Hat man beispielsweise 10 Server die als PHP-Applicationserver für ein Webmail laufen dann macht es wenig Sinn diese zu virtualisieren und den Overhead dafür zu bezahlen: Da ist es meistens effizienter bei einem Generationswechsel auf neue Hardware auch weiterhin direkt auf die Hardware aufzusetzen und möglichst schlicht die Anzahl der Systeme zu reduzieren. Da man nur wenige Basistypen von Hardware hat ist der Aufwand hierfür gering. Speziell bei IO-intensiven Anwendungen solltet man unbedingt vorher ausprobieren ob Virtualisieren genau in diesem Anwendungsfall Sinn macht!

Einige Studien zur Virtualisierung verleiten zu einem Schmunzeln: Da wird stolz berichtet, dass vorher zu 30% ausgelastete Systeme nun zu mehr als 80% ausgelastet sind. Dass– je nach verwendeter Technologie – der Overhead der Virtualisierung einen guten Teil zur gestiegenen Auslastung beiträgt wird jedoch nicht erwähnt.  Virtualisierung ist für uns ein nützliches Werkzeug – das gepriesene Allheilmittel für alle unsere Nöte ist es jedoch nicht.

Erkenntnis 4: Immer auf den eigenen Anwendungsfall konzentrieren.

Allgemeine Weisheiten wie sie in Online-und Printmedien verbreitet werden sind häufig interessant zu lesen und regen zum Nachdenken an. Entscheidend ist jedoch immer der eigene Anwendungsfall und wie man Nutzen daraus ziehen kann. Das gilt natürlich auch für diesen Beitrag: Einen Anspruch auf Allgemeingültigkeit erheben wir nicht.

Bei allen Bestrebungen zur Optimierung sollte man stets die bekannte, goldene Regel für IT-Betrieb mit berücksichtigen: Systeme fallen aus, immer.

Egal wie gut, teuer oder ausfallsicher Hardware oder eine Anwendung ist, irgendwann fällt sie aus. Sei es durch defekte Hardware, menschliches Versagen oder auch nur unberücksichtigte Seiteneffekte. Es ist daher wichtig sich diesen Umstand immer wieder bewusst zu machen, mit dem Ausfall zu rechnen und Planungen für den „Worst Case“ zu erstellen. Die besten Pläne und Vorgehensweise helfen aber nichts wenn sie nicht regelmäßig trainiert und getestet werden. Speziell Wartungsverträge mit garantierten Reaktionszeiten können auf dem Papier toll aussehen: Ob sie im Zweifel dann auch wirklich wie vorgesehen greifen und die Zeit bis zur Reparatur akzeptabel ist sollte man vorher eingehend prüfen. Gerade beim Einsatz von neuen Technologien (die oft anfälliger als bereits bewährte sind) ist es unabdingbar einen Notfallplan parat zu haben und wenn erforderlich schnell wieder auf einen funktionierendes, wenn vielleicht auch etwas älteres, System umzuschalten.

End of article

Jochen Tuchbreiter

Über den Autor

Jochen Tuchbreiter

Geschäftsführung (bis 11/13)

10 Kommentare

Bitte füllen Sie das Captcha aus : *

Reload Image

Die von Ihnen hier erhobenen Daten werden von der domainfactory GmbH zur Veröffentlichung Ihres Beitrags in diesem Blog verarbeitet. Weitere Informationen entnehmen Sie bitte folgendem Link: www.df.eu/datenschutz


  • Richard
    Richard - 26. Mai 2010 um 09:51 Uhr

    Sehr interessanter Artikel, gerne mehr davon! 🙂

  • wingfire
    wingfire - 26. Mai 2010 um 13:31 Uhr

    Danke für den guten Artikel! Er fasst so wundervoll das zusammen, was wir schon immer wussten aber nie einer in so einfache Worte gefasst hat.

  • Martin
    Martin - 26. Mai 2010 um 14:42 Uhr

    Sehr guter Artikel. Schön auch mal etwas von dieser Seite zu lesen und das Sie Ihre Erfahrungen teilen.

  • Sebastian Winkelmann
    Sebastian Winkelmann - 26. Mai 2010 um 15:52 Uhr

    Es ist erstaunlich was da (effizienter Betrieb / CO2-Ausstoß) hinter steht und dran hängt. Ich hätte mir das einfacher vorgestellt! Allein die Länge des Artikels und die vielen Ansatzpunkte zeigen dass das (der Zug zum) klimaneutrale(n) Hosting bei dF alles andere als heiße Luft ist.

  • Jörg
    Jörg - 26. Mai 2010 um 23:08 Uhr

    Naja, früher habt Ihr ja viele Desktop – Röhren ohne wirkliches Gehäuse gehabt oder? 😉

    Das da Einsparungen möglich waren, liegt auf der Hand ;).

  • fooz
    fooz - 27. Mai 2010 um 08:03 Uhr

    Guter Artikel – solche Erfahrungen kann man immer gebrauchen.

  • Stephan
    Stephan - 27. Mai 2010 um 10:40 Uhr

    danke für den interessanten Artikel 🙂

  • Oliver
    Oliver - 31. Mai 2010 um 13:50 Uhr

    Schön das man sich bei DF so viele Gedanken um das klimaneutrale Hosting macht! Weiter so!

  • Ludwig
    Ludwig - 2. Juni 2010 um 14:20 Uhr

    Schön – ein fundierter Artikel zum Energie-effizienten Hosting. In einer Werbung habe ich mal von “klimaneutralem Hosting” gelesen. Dieses Wort halte ich für unseriös, es wirft ein schlechtes Licht auf die an sich positive Politik bei df.

  • Nils Dornblut
    Nils Dornblut - 2. Juni 2010 um 18:46 Uhr

    @Ludwig: Was ist genau an dem Wort unseriös? Zusammenhänge diesbezüglich sind hier erklärt:

    http://www.df.eu/de/unternehmen/umweltschutz/