Wenn die Platte zweimal klingelt – Entwickler und der Datenverlust
Ein Festplattendefekt ist heutzutage praktisch das Schlimmste, was einem Computernutzer passieren kann. Während alle anderen Teile meist problemlos ersetzbar sind, sind mit der Ausfall der Festplatte oft auch mehr oder weniger viele Daten verloren. Nicht immer ist das Budget für eine professionelle Datenrettung vorhanden, die schnell vierstellige Summen kosten kann. Daher gibt es eigentlich nur eine einzige erschwingliche Alternative: Backups, Backups und nochmal Backups. Wichtige digitale Daten sollten mindestens in dreifacher Ausführung vorhanden sein, fällt eine Kopie dann weg, kann sie mit großer Wahrscheinlichkeit aus den verbliebenen Quellen wiederhergestellt werden – vorausgesetzt, diese weiteren Kopien sind nach einem ordentlichen „Katastrophenplan“ organisiert. Das bedeutet unter anderem, dass nicht alle Kopien durch ein örtlich begrenztes Ereignis ausgelöscht werden können – sprich je weiter die Kopien voneinander entfernt sind, desto besser. Am bequemsten funktioniert dies mit einem verlässlichen Anbieter aus der Sparte Profi Webhosting. Dort wird nicht mit dem letzten Cent kalkuliert um sich am Markt allein über den Preis gegen die Konkurrenz zu behaupten, sondern das Hauptaugenmerk auf stabilen Betrieb und hohe Ausfallsicherheit gelegt. Das sorgt für eine verlässliche Backup-Möglichkeit, die sich auch ganz nach den persönlichen Anforderungen mittels fortgeschrittener Methoden wie beispielsweise rsync nutzen lässt.
SVN/Git Hosting gegen Datenverlust
Ganz besonders wichtig ist für den Entwickler die Absicherung der Versionsverwaltung. Während bei klassischen Systemen ein zentrales Repository für die Verwaltung der Quelltexte sorgt, sind seit kurzem verteilte Systeme zur Versionsverwaltung der letzte Schrei. Beide Varianten lassen sich gut mit den anderen Elementen eines Katastrophenplans kombinieren, um auch bei seltenen, dafür um so gravierenderen Ereignissen nicht die Arbeit von Monaten oder gar Jahren zu verlieren. Im einfachsten Falle kann dies beispielsweise über ein Git Hosting verwirklicht werden. Git gehört zu den modernen verteilten Verwaltungssystemen, bei denen praktisch jeder Nutzer eine komplette Kopie des Repositorys lokal vorhält. Damit sind auch Teilausfälle recht einfach zu kompensieren. Wer ein älteres System zur Versionsverwaltung verwendet, wie beispielsweise Subversion, der kann auf zwei Arten zur Sicherheit seiner Daten beitragen: Entweder durch die Nutzung eines Anbieters für Subversion Hosting, zu dem dann das bisher lokal vorgehaltene Repository übertragen wird, oder durch Profi Webhosting als Backup zum lokalen Sourcecode-Archiv. Beide Varianten haben ihre Vor- und Nachteile, die Variante mit weniger Arbeit dürfte klar das Subversion Hosting sein. Dort kümmert sich der Hoster um alle Verwaltungsaspekte und legt auf Kundenwunsch auch regelmäßige Backups an. Lässt man sich diese auf den eigenen Webspace legen, kann man durch einfaches Herunterladen eine zusätzliche Backup-Instanz realisieren. Geparkt auf einer externen Festplatte, die nur bei Bedarf an den Rechner angeschlossen wird und ansonsten ohne Kabel an einem sicheren Ort, z.B. dem Keller oder bei einem Verwandten lagert, kann nur noch wenig schief gehen. Um in diesem Szenario die gesicherten Daten wirklich zu vernichten, müssten schon zahlreiche Ereignisse zusammentreffen. Fukushima hat zwar gezeigt, dass dies keine Unmöglichkeit ist, dennoch ist die Wahrscheinlichkeit für so ein Zusammentreffen äußerst gering. Hundertprozentige Sicherheit ist auch mit dem größtmöglichen Aufwand nicht zu erreichen, und der zusätzliche Aufwand für mehr Schutz steigt immer weiter an, je mehr Aufwand man bereits treibt. Unterm Strich ist man mit der Kombination aus Profi Webhosting und mehreren lokalen Kopien gegen die meisten Ausfallursachen gut gerüstet.


Hinterlasse einen Kommentar
An der Diskussion beteiligen?Hinterlasse uns deinen Kommentar!