Backupsystem: eine Milliarde Dateien pro Nacht und weitere Fakten

Die laufende und ordnungsgemäße Datensicherung spielt beim Webhosting eine große Rolle. Dabei handelt es sich keinesfall um eine leichte Aufgabe, die sich mal eben so „nebenher“ erledigen lässt. Vielmehr erfordert ein funktionierendes Backupkonzept hohe Investitionen, viel Manpower, jede Menge Gehirnschmalz und die durchgehende Arbeit an Verbesserungsmöglichkeiten.

Denn was in der Theorie einwandfrei funktionieren (und vielleicht sogar „ganz einfach“ sein) sollte, muss in Praxis beim intensiven Masseneinsatz noch lange nicht reibungslos laufen. Wir beschäftigen uns sehr konsequent mit diesem  Thema, um die bestmögliche Sicherheit und Integrität der jede Nacht von mehreren tausend Servern erzeugten und drei bis sieben Tage vorgehaltenen Datensicherungen gewährleisten zu können.

Die erste und im Alltag wichtigste Sicherheitsstufe, um Datenverlusten und Betriebsunterbrechungen vorzubeugen, stellt dabei die mehrfache Speicherung aller Daten eines Servers in Echtzeit dar. Dabei werden die jeweiligen Informationen nicht nur auf einer einzelnen Festplatte gespeichert, sondern zusätzlich auf mindestens einem weiteren Datenträger vorgehalten.  Der Ausfall einer Festplatte führt somit weder zu einem Datenverlust noch zu einem Ausfall, da die defekte Komponente einfach im Livebetrieb ausgetauscht werden kann, während die gespeicherten Daten unverändert auf dem zweiten Datenträger zu Verfügung stehen.

Diese „Echtzeit-Spiegelung“ aller Daten stellt zwar einen wichtigen Baustein im gesamten Konzept zur Verfügbarkeit und Datenintegrität dar, kann (und soll) aber ein „echtes“ Backup  selbstverständlich nicht ersetzen. Denn während die „Echtzeit-Spiegelung“ der Daten auf dem Server ideal ist, um Datenverlusten durch den Defekt einer Festplatte vorzubeugen und damit verbundene Ausfälle zu vermeiden, kann nur eine nächtliche „Komplettsicherungen“ auf gesonderte Backupserver die Anforderungen an ein hohes Schutzniveau wirklich erfüllen.

So kommt es z.B. vor, dass ein Kunde versehentlich die auf dem Server von ihm gespeicherten Daten löscht. In solchen Fällen hilft nur eine Wiederherstellung der Daten aus einem Backup, weil die doppelte Speicherung der Daten auf dem Server das Problem nicht abfangen könnte: Genauso wie jede Datei mehrfach gesichert wird, werden bei einem vom Kunden initiierten Löschvorgang umgekehrt auch die gespiegelten Kopien gelöscht, da das Dateisystem des Servers auf einen identischen Stand bei den entsprechenden Speichermedien angewiesen ist.

Zudem kann es leider zu einem umfangreichen Gerätedefekt oder Fehler kommen, der eine Nutzung auch gespiegelter Daten unmöglich und ein vollständiges Server-Restore erforderlich macht. Diese Fälle treten sehr selten auf, lassen sich aber – wie alle Dinge im Leben – nicht zu 100,00% verhindern. Theoretisch gefährlich (wenn auch enorm unwahrscheinlich) sind „exotischere“ Szenarien wie ein Brand im Rechenzentrum. Realistischer sind hingegen z.B. Dateisystemfehler, bei denen die Daten schlichtweg nicht mehr richtig und vollständig sind – da hilft dann auch die automatische Spiegelung der (eben fehlerhaften) Dateien nicht. Wie gesagt tritt dies nur selten auf, aber Backups werden ja auch extra als zusätzliche Sicherheit für außergewöhnliche Situationen konzipiert und nicht für den Alltag, in dem alles reibungslos läuft.

Die von uns jede Nacht erstellten Backups halten wir daher für in der Regel drei Tage, bei ManagedExchange-Postfächern sogar für sieben Tage, vor und bieten wann immer es möglich ist, eine (für uns leider aufwendige da manuelle) Rücksicherung an. Die entsprechende Auftragserteilung ist direkt im Kundenmenü möglich, damit kein vermeidbarer Papierkram die Bearbeitung verzögert.

Um eine langfristig und kontinuierlich hochwertige Backupinfrastruktur und zuverlässige Datensicherungen stabil ermöglichen zu können, investieren wir erhebliches Kapital und beträchtliche Mühen in unsere Datensicherungsinfrastruktur und deren beständige Optimierung. Das ist durchaus eine Herausforderungen, was die folgenden interne Zahlen vielleicht ein wenig erahnen lassen:

  • Wir sichern jede Nacht die Daten der von uns betriebenen Server auf mehr als 500 (!) dedizierten Backupservern.
  • Auf diesen Geräten sind mehr als 250 Terabyte verdichteter Backupdaten gespeichert.
  • Jede Nacht erfolgt die Sicherung von mehr als 1.000.000.000 (1 Milliarde) Dateien mit einem Umfang von über 50 Terabyte.
  • Bei jedem Backup werden mehr als 60 Gbit/s an Netzwerkkapazität für die Datensicherung beansprucht.
  • Das gesamte Backupsystem wächst zusammen mit unserer übrigen Infrastruktur und bedarf ständiger Wartung und Pflege. Dieser Aufwand lohnt sich jedoch, was sich in der erreichten Fehlerquote von nur noch 0,5% bei den Sicherungen niederschlägt. Dies ist durchaus beachtenswert, obgleich wir selbst natürlich an einer weiteren Verbesserung arbeiten.

Insgesamt lässt sich festhalten, dass die Arbeit an einem gut funktionierenden Backupsystem niemals aufhört und für einen fundierten und sinnvollen Einsatz beim Webhoster viel individueller Aufwand entsteht, damit eine stabile und zuverlässige Lösung für die Datensicherung entsteht und erhalten bleibt. Dabei muss das Ganze nicht nur auch tatsächlich immer einwandfrei funktionieren, sondern auch finanzierbar sein. Denn selbstverständlich erwarten unsere Kunden zu recht eine ordentliche Sicherung unserer Server und deren Daten als „Inklusivleistung“, was wir gerne erfüllen.

End of article

Sara Marburg

Über den Autor

Sara Marburg

Geschäftsführung (bis 11/13)

8 Kommentare

Bitte füllen Sie das Captcha aus : *

Reload Image

Die von Ihnen hier erhobenen Daten werden von der domainfactory GmbH zur Veröffentlichung Ihres Beitrags in diesem Blog verarbeitet. Weitere Informationen entnehmen Sie bitte folgendem Link: www.df.eu/datenschutz


  • Rainer.D
    Rainer.D - 2. März 2011 um 11:53 Uhr

    Da ein Brand erwähnt wird … Stehen die Backup-Server in einem anderen Rechenzentrum? Denn wenn das Rechenzentrum brennt, brennen ja auch die Backup-Server. Die räumliche Trennung ist bei Backups ja immer ein besonders wichtiger Punkt.

  • mar-e
    mar-e - 2. März 2011 um 12:02 Uhr

    250TB / 500 Backupserver = 0.5 TB/Server
    60 Gbit/s / 500 Backupserver = 0.120 GBit/s/Server.

    Bedeutet das, dass die Backupserver ausrangierte Webserver sind, die sich so ihr Gnadenbrot verdienen?

  • Sara
    Sara - 2. März 2011 um 12:05 Uhr

    Hallo zusammen,

    unser Rechenzentrum verfügt über mehrere Brandabschnitte und erfüllt daher die nötigen Voraussetzungen für eine sichere räumliche Trennung auch ohne Unterbringung in einem ganz anderen Rechenzentrum.

    Bei den Backupservern handelt es sich nicht um „ausrangierte Webserver“, die sich ein „Gandenbrot“ verdienen. 🙂

  • fooz
    fooz - 2. März 2011 um 12:57 Uhr

    Wie verteilen sich die 250TB auf den über 500 Backupservern?

  • Sepp
    Sepp - 2. März 2011 um 14:02 Uhr

    Hat man eigentlich, wenn man eine so riesiege Serverfarm betreibt wie dF, nicht manchmal ein flaues Gefühl im Magen, wenn man da was erweitern muss, z.B. wegen Kapazitätserweiterung? Ich meine man sagt nicht umsonst „never touch a running system“. Wenn ich hier bei mir im Betrieb an Kapazitätserweiterungen denke (Windows-Domäne) so gabs da schon allerhand Unfälle, wie Domänenmaster spinnt rum usw. Das hat dann meist zu mehrstündigen Ausfällen geführt und schon einigen gestandenen Systemadmins den Schweiß auf die Stirn getrieben inkl. einmal einem 36 Stunden Dauereinsätze hier bei uns vor Ort, weil kein Windows Logon mehr möglich war. Und das alles nur weil ein zusätzlich Domänen-Controller eingerichtet werden sollte.

  • JCG
    JCG - 3. März 2011 um 13:22 Uhr

    > eine Milliarde Dateien pro Nacht

    Wahnsinn…! 😮

  • Peter
    Peter - 9. März 2011 um 13:33 Uhr

    Wie funktioniert das denn technisch? Werden die Daten lokal gepackt und dann auf ein festes Set Backupserver (fest = für einen Node sind X Backupserver zuständig) geschoben?
    Oder werden die Daten direkt so wie sie auf dem Node liegen inkrementell mit der Kopie auf den Backupservern abgeglichen (z.B. via RSYNC)?

  • Rene
    Rene - 18. März 2011 um 15:47 Uhr

    Würde mich auch sehr stark interessieren 🙂 Klingt ziemlich cool das Konzept.