Trotz Cloud und File-Servern im Firmennetz speichern Benutzer nach wie vor wichtige Dateien auf den lokalen Festplatten ihrer Arbeitsstationen oder Notebooks. Moderne SSDs wiegen ihre Anwender dabei in einer trügerischen Sicherheit: Dank Technologien wie S.M.A.R.T. und Wear Leveling können diese Datenspeicher ihr Ableben vorhersehen und den Anwender meistens rechtzeitig vor einem Plattenausfall warnen. Doch nur selten verlieren Anwender wertvolle Daten durch einen spontanen Plattenausfall. Viel häufiger liegt die Ursache für den Datenverlust bei den Usern selbst, da sie versehentlich Files löschen oder überschreiben. Wer mit dem Notebook reist, muss auch damit rechnen, das Gerät zu verlieren oder irreparabel zu beschädigen.
Ein Gerät nebst OS und Applikation lässt sich zwar flott ersetzen, bei den Benutzerdateien sieht das jedoch anders aus. Daher braucht jeder Anwender mit wichtigen Dateien auf dem lokalen Rechner eine brauchbare Backup- und Restore-Strategie. Diese sollte folgende Funktionen enthalten:
- Mehrstufige Dateiversionierung,
- lokale Sicherung,
- Remote-Sicherung via LAN,
- optional eine Remote-Sicherung via WAN sowie
- Backup und Recovery unabhängig vom Betriebssystem.
Auf dem freien Markt gibt es Unmengen an Backupprogrammen für alle gängigen Betriebssysteme – und viele davon kommen aus unerklärlichen Gründen mit unübersichtlichen Benutzeroberflächen daher. Bei den meisten Usern endet die Sicherungskette dann auch an der USB-Festplatte. Wer seine Daten sichern möchte, sollte das allerdings besser mit einer Netzwerkfreigabe anstatt eines USB-Laufwerks bewerkstelligen. Gängige Cloudbackup-Tools wiederum sichern direkt in die angebundene Cloud und funktionieren daher nur, wenn der Nutzer auch online ist.
Git [1] ist eigentlich ein Werkzeug für Entwickler. Es erlaubt die Versionierung von Code, zeigt
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.