Zitat von KalleH am June 10, 2013, 23:37
Habt ihr alle noch nicht bemerkt, dass HLB für Datenschaufler eurer Gewichtsklasse ungeeignet ist. Ihr fabriziert x-Millionen von Links, die beim Aufräumen ihre Zeit brauchen, weil sie alle durchgeackert werden müssen.
Kannst du auch technisch präzise ausführen, was genau du mit "durchgeackert werden" meinst? Soo klar ist die Problematik nicht, als dass man sie einfach so leicht abtun kann, wie du. Es ist schon ein sehr interessantes Problem, schließlich sind Dateisysteme zur Aufnahme von Tausenden von Dateien schlicht da.
Zitat von KalleH am June 10, 2013, 23:37
Ein Aufräum-Job der meistens nur Links löscht, und dazu einen ganzen Tag braucht, ist doch in sich faul. Das Erstellen von Hardlinks und das Bereinigen der Backups ist kein Problem schneller Festplatten oder des Betriebssystems, sondern einfach ein Mengen-Problem.
Ganz so einfach ist es dann doch nicht, denn beim Löschen beispielsweise einer einzelnen Datei interessiert es auch herzlich wenig, ob ein Dateisystem nur 500 andere oder doch eher 500'000 weitere gespeichert hat. Man muss sich also schon sehr genau ansehen, wo denn die Flaschenhälse beim Löschen massenhafter Dateien und Links aus alten Sicherungen sind.
Zitat von KalleH am June 10, 2013, 23:37
Es gibt so viele (sogar kostenlose) Backups die das bei riesigen Datenmengen sehr viel schneller können. Inkrementell ist das Zauberwort. Diese Programme müssen sich um leeren Daten-Müll überhaupt nicht kümmern, weil es ihn nicht gibt. Bei Backups ist HardlinkBackup auch etwas langsamer als andere Programme, weil er Links schreibt, wo es nichts zu sichern gibt.
Grundsätzlich ist es schlicht Unsinn, dass es so viele bessere kostenlose Backup-Anwendungen gibt, du kannst gern versuchen deine Behauptung mit Fakten zu untermauern und ich werde mein bestes tun, dir die Programme virtuell um die Ohren zu hauen. 😉 Backup ist ein hoch komplexes Thema und nur weil irgendwer eine GUI um robocopy gebastelt hat, hat man damit kein taugliches Backup. Was genau meinst du überhaupt mit inkrementeller Arbeit und leerem Daten-Müll? Links sind kein Datenmüll, sondern einfach dem Anspruch geschuldet, wie leicht HardLinkBackup Zugriff auf alte Datenbestände geben möchte. Genau da trennt sich sehr schnell die Spreu vom Weizen, irgendwas durch die Gegend kopieren kann jeder, aber schnellen, einfachen, vor allem übersichtlichen Zugriff auf die komplette Sicherungshistorie zu bieten ist schon eine Kunst für sich. Wie machen das deine Alternativen, die ohne Links arbeiten denn so?
Inkrementelles Backup heißt normalerweise, dass nur geänderte Dateien gesichert werden, ohne die Nutzung von Links stehste also mit irgendwelchen Sicherungsverzeichnissen dar, in denen immer nur ausschließlich bis zu diesem Zeitpunkt geänderte Dateien sind und darfst dich im Falle einer Wiederherstellung durch alle alten Verzeichnisse klicken und gucken, wann Dateien das letzte Mal gesichert wurden. Tolle Wurst. Wie sehr du dich irrst siehst du übrigens daran, dass die Nutzung von Links intern in aktuellen Windows absolut Standard, auf anderen Systemen, insbesondere Mac OSX mit Timemachine, auch für Backups schon lange etabliert ist. Es ist einfach wesentlich bequemer, immer durch einen vollständigen Verzeichnisbaum navigieren zu können.
Zitat von KalleH am June 10, 2013, 23:37
Und beim automatischen oder manuellen Aufräumen kannst du dir einen Wolf sitzen. Wer braucht schon Millionen von Links, das sind Einträge im File-System, von denen alle nur auf ein Original zeigen? Und sage mir keiner, dass HardLinks keinen Speicherplatz benötigen, im Gegenteil, hier wird unnötiger Speicherplatz verbraten.
Natürlich verbrauchen Hardlinks Speicher, aber meines Wissens nach nicht so wie du denkst, sprich als normale Datei, sondern lediglich in der MFT als zusätzlicher Dateieintrag und stellen damit von der Größe her einen eigentlich vernachlässigbaren Faktor da. Der Witz ist ja gerade, dass keine Blöcke wie bei normalen Dateien verbraucht werden und selbst bei Dateien werden sehr kleine bis zu einer bestimmten Größe schon direkt in der MFT gespeichert und der Speicherbedarf damit optimiert.
Oder welche Speicherverschwendung meinst du genau?
Zitat von KalleH am June 10, 2013, 23:37
Ihr müsst entweder öfter aufräumen, oder euch etwas anderes überlegen.
Der Witz an Backups ist doch aber, wenn man so viele hat, wie die Hardware hergibt. Warum sollte man sich mit weniger zufrieden geben? Es gibt Leute, die haben Versionsverwaltungssysteme wie SVN für Backups angepasst oder committen ihre Systeme tatsächlich komplett in eine Versionsverwaltung. Hat auch seine Berechtigung, je nach Anwendungszweck.
|