HardlinkBackup

Logo HardlinkBackupHardlinkBackup ist ein einfaches, schnelles Backup-Programm für inkrementelle Backups, das Hardlinks benutzt, Backups planen, E-Mail-Benachrichtigungen versenden und automatisch alte Backups löschen kann. HardlinkBackup liest die Quellverzeichnisse ein und vergleicht die Dateien mit früheren Backups. Nur die geänderten Dateien werden anschließend kopiert, die unveränderten Dateien werden mit Hard-Links mit den Dateien der bereits bestehenden Backups verlinkt (Voraussetzung ist, dass das Ziellaufwerk Hardlinks unterstützt, also z.B. mit NTFS formatiert wurde). Auf diese Art und Weise befindet sich auf dem Backup-Laufwerk immer eine komplette Kopie der Quellverzeichnisse vom jeweiligen Datum. Jedoch wird nur der Platz einer Kopie plus der veränderten Dateien benötigt. Wird eine alte Backup-Kopie nicht mehr benötigt kann sie ohne Probleme entsorgt werden, indem einfach das entsprechende Backup-Verzeichnis gelöscht wird. Von der Idee her entspricht HardlinkBackup dem rsyncbackup.vbs der Zeitschrift c’t, erweitert um eine grafische Benutzeroberfläche und viele weitere Features.

HardlinkBackup
Aktuelle Version: Version 2.2.17 vom 06.08.2017
Download:
(32-bit version) oder (64-bit version) Größe: ca. 8,69 MB
Readme/Changes: ReadMe.txt Bitte beachten Sie die Lizenzvereinbarung.
Handbuch/Hilfe: Download (PDF, deutsch)
Unterstützte Betriebssysteme: Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008, Windows Server 2008 R2, Windows 7, Windows 8/8.1, Windows Server 2012, Windows 10, Windows Server 2016
Lizenzen: Community Lizenz Professional Lizenz Enterprise Lizenz
Preis: kostenlos 39 € 69 €
Einsatzgebiet: Nicht-Kommerziell Nicht-Kommerziell Kommerziell
Sprachunterstützung: Englisch, Deutsch, Französisch, Spanisch
Features:
Schnelle, inkrementelle Sicherung beliebig großer Verzeichnisse Ja Ja Ja
Verschiedene Backup-Modi (Hardlink, Linkskript, Move, Mirror) Ja Ja Ja
Verwendung von Hardlinks (platzsparende Sicherung) Ja Ja Ja
Wiederherstellung mit Windows-Bordmitteln (Kein Programm notwendig) Ja Ja Ja
Sicherung auf lokalen, USB & Netzlaufwerken sowie Unterstützung vieler NAS Ja Ja Ja
Unterstützung langer Pfad- und Dateinamen Ja Ja Ja
Intuitive Benutzeroberfläche Ja Ja Ja
Management von mehreren Backups Ja Ja Ja
Sicherung von Linkstrukturen (Ermöglicht Backup von Backups) Ja Ja Ja
Überprüfen und Wiederherstellen von Backups Ja Ja Ja
Sichern von geöffneten Dateien   Ja Ja
Planung automatisierter Backups   Ja Ja
Emailbenachrichtigung   Ja Ja
Automatisches, regelbasiertes Aufräumen von Backups   Ja Ja
Batchmodus (Ausführen mehrerer Backups nacheinander)   Ja Ja
Erkennung verschobener und umbenannter Dateien   Ja Ja
Differentielle Sicherung großer Dateien   Ja Ja
Unterstützung für Notebook-Backup (Überwachung von Ziellaufwerk und Netzwerkverbindung)   Ja Ja
Durchführung von Skripten vor und nach dem Backup   Ja Ja
Verwendung zweier Backupziele gleichzeitig     Ja
Kommerzielle Nutzung     Ja
Erwerb über Partner: HardlinkBackup, Download bei heise
  Alternativ kann HardlinkBackup auch direkt beim Autor erworben werden (Achtung: längere Bearbeitungszeiten). Einfach E-Mail an software@lupinho.net.

Screenshots:

  1. avatar
    Wilfried Bauer
    23. Mai 2017, 15:57 | #1

    @lupinho
    Es ist natürlich eine Vielzahl von Verzeichnissen, aber keines davon sollte tiefer als ca. 12 Ebenen sein.

  2. avatar
    Wilfried Bauer
    29. Mai 2017, 10:24 | #3

    OK, Test läuft ab jetzt wieder. Gibt es eine Erklärung bzw. Verbesserung dafür, dass das Tool gegen Ende immer langsamer wird? Das war ja zum Schluss dramatisch langsam.

    Spielt es evtl. eine Rolle, dass täglich neue Backups dazu kommen bzw. alte gelöscht werden? Wenn DirInfo mehrere Tage braucht kann man das ja nicht vermeiden.

    • 29. Mai 2017, 12:40 | #4

      Ich denke, dass die verlangsamte Laufzeit mit dem Speicherverbrauch zusammenhing. Generell ist die Laufzeit abhängig von der Anzahl Hardlinks/Datei; aber die sollte nicht signifikant größer sein bei neueren Backups.

  3. avatar
    Lars
    29. Mai 2017, 17:30 | #5

    @lupinho
    Hi Lupinho,
    komme erst jetzt zum Lesen … Anmerkung:
    – Nacheinander ist gut, alles andere macht nur Probleme 🙂
    – Selbes Verzeichnis ist bei mir nicht der Fall, aber gleiche Disk. Da könnten man die gefundenen HBD’s doch nacheinadner abarbeiten.
    Ich trenne die Verzeichnisse, damit man die Übersicht behält gerne aut Top-Level-Ebene, da es auch unterschiedliche Shares sind und eine andere Policy verfolgt wird.
    Bin sicher Du findest eine gute Lösung. Wichtig wäre das schon, damit die beiden Backups automatisiert und vollständig ablaufen.
    VG Lars

  4. avatar
    Wilfried Bauer
    6. Juni 2017, 10:09 | #6

    @lupinho
    DirInfo ist jetzt durch. Die letzte Änderung brachte eine deutliche Verbesserung. Die Laufzeit nahm nicht mehr so dramatisch zu, je höher die Anzahl Files stieg. Laufzeit vs. Fileanzahl war einigermaßen linear, sh. unten. Passt also.

    Ich denke, so kann man das Tool releasen. Besten Dank für die Unterstützung.

    Datum Zeit Files Dirs Mem.Pri Mem.Commit
    ==========================================================
    29.5.17 17:01 0 0 18000
    30.5.17 9:21 2286434 531835 1739000
    30.5.17 17:35 3763071 880770 2904000
    31.5.17 9:49 6091507 1475427 4913000
    31.5.17 17:35 7380116 1807929 5172000
    1.6.17 10:40 9599078 2396577 5505000
    1.6.17 16:13 10434565 2618312 5384000 8636000
    2.6.17 9:46 12339429 3119647 5040000 10213760
    2.6.17 17:54 13024585 3299428 3698000 10727000
    6.6.17 9:57 14398994 (fertig) ? 0 0

  5. avatar
    Simon
    13. Juni 2017, 19:27 | #7

    Hallo, ich erhalte beim Äufräumen folgenden Fehler mehrmals:

    [2017-06-13 02:26:47.92] Fehler: Ein Fehler trat auf beim Löschen von „Z:\Backup Hardlink\2017-06-04\Media\$RECYCLE.BIN\S-1-5-21-3696732911-1809250037-619430631-1001″: (145) The directory is not empty: [\\?\Z:\Backup Hardlink\2017-06-04\Media\$RECYCLE.BIN\S-1-5-21-3696732911-1809250037-619430631-1001]

    AKtiviert (=“EIN“) sind in den Aufräumregeln:
    — Tägliche Backups, behalte Sätze der letzten 7 Tage, Behalte einen pro Tag
    — Wöchentliche Backups, behalte Sätze der letzten 4 Wochen, Behalte einen pro Woche
    — Monatliche Backups, behalte Sätze der letzten 6 Monate, Behalte einen pro Monat
    — Jährliche Backups, behalte Sätze der letzten 10 Jahre, Behalte einen pro Jahr
    — Lösche ältere Backups

    Was ist falsch konfiguriert bzw. berechtigt? Ich nutze einen Backup-User, der volle Schreibrechte auf das Backup-Verzeichnis hat und Lese-Rechte auf ie Quellverzeichnisse

    Die Backups selber klappen reibungslos.
    vG, Simon

    • 25. Juni 2017, 12:26 | #8

      Hallo! Ich würde generell „$RECYCLE.BIN“ (der Papierkorb) und „System Volume Information“ (u.a. die Schattenkopien selbst) von der Sicherung ausschließen. Vermutlich handelt es sich beim Löschen um ein Berechtigungsproblem.

  6. 21. Juli 2017, 09:52 | #9

    Moin,

    wir haben Lizenzschlüssel für drei Maschinen erworben. Wir lassen Installationen i.d.R. via zentraler Software-Verteilung ausführen. Ist es möglich via Skript oder ähnlichen die Lizenzschlüssel mit der Installation gleich mit auf diese Maschinen auszurollen?

    • 21. Juli 2017, 18:57 | #10

      Es gibt die Option „-register“, bei der dann der Lizenzkey übergeben werden kann.
      Gruß,
      Lupinho.

  7. avatar
    Andreas de Lali
    25. Juli 2017, 11:04 | #11

    2,42 TB vom Projektlaufwerk aufs NAS beim ersten Lauf geplant – aber Absturz des Dienstes bei ca. 260GB und 791.285 Dateien, 50.245 Ordnern.

    Und leider führt das verlinkte EULA aka. die Endbenutzerlizenzvereinbarung in die 404-Leere.

    • 25. Juli 2017, 19:11 | #12

      Das mit der Eula-Seite checke ich; ansonsten liegt die auch als Textfile bei bzw. hilft bei dem Problem nicht weiter. Woran hast Du festgestellt, dass der Dienst abgestürzt ist? Wenn Du mir das Logfile und am besten einen Export der System- Events mit Quelle HardlinkBackupService an software@lupinho.net schickst, kann ich gerne helfen. Abstürze des Dienstes sind extrem selten; insofern würde mich die Ursache sehr interessieren!

  8. avatar
    Andreas de Lali
    25. Juli 2017, 22:17 | #13

    @lupinho
    Da ich die Oberfläche noch offen hatte, hat mir HardLinkBackup selbst den Dienst-Absturz angezeigt.
    Jetzt fand ich als erstes Ereignis
    „[2017-07-25 03:27:59.75] INFO : Directory „Q:\2017-07-24″ offline. Stopping all workers working on this directory! at AbstractDirectoryOfflineWatcher.Void …“. Da hatte ich wohl einen extrem seltenen Netzwerkfehler, aber der dann vielleicht geeignet ist, den Dienst bzw. seine Fehlerbehandlung noch robuster zu machen.
    Auch wenn der Fehler zu 99,4% bei mir liegt, sende ich trotzdem mal die Anwendungs-Ereignisse vom Netzwerkfehler bis zum Windows Error Reporting als evtx- und alt Text-Datei zu.

  9. 27. Juli 2017, 23:50 | #14

    @Andreas de Lali
    Nein, da scheint noch ein Bug zu schlummern! Vielen Dank für die Ereignisse! Tatsächlich sollte sich der Dienst robust verhalten, wenn das Laufwerk Offline geht. Genauer genommen wird das Backup gestoppt, wenn das Laufwerk offline geht und wieder aufgenommen, wenn es wieder verfügbar ist. Offensichtlich gab es hier bei Dir ein Problem – sorry! Ich arbeite einer Lösung und veröffentliche ggf. ein Update!

  10. avatar
    Christian
    5. August 2017, 11:41 | #15

    Hey Lupinho,

    erstmals großes Kompliment für die tolle Software! Ich nutze seit längerer Zeit die Professional Version.

    Mit fehlt ein „kleines“ Feature 🙂
    Es wäre super wenn man auch Verzeichnisse ausschließen könnte, indem man darin einfach eine bestimmte Datei anlegt z.B. „.nobackup“.

    Die absolute Luxuslösung wäre natürlich die generische Erweiterung der Filter über die GUI. Verzeichnis (mit/ohne Unterverzeichnisse) ignorieren wenn Datei xyz darin gefunden wurde.

    Ich weiß nicht inwieweit ich der einzige bin der so eine Funktion toll finden würde. Aber mit würde es die Filtereinstellungen erleichtern, da ich immer mein gesamtes Benutzerverzeichnis sichere und immer mal wieder was ausschließen muss, da sich auch das ein oder andere bei neuer Software dort abgelegt wird, was nicht gesichert werden muss. Ansonsten wird bei mir die Filterung immer unübersichtlicher, weil natürlich das entfernen nicht mehr benötigter Filterzeilen eher nicht stattfindet. Ich würde mich über so eine zusätzliche Möglichkeit zum ausschließen von Verzeichnissen wahnsinnig freuen.

    Vielleicht machst du dir ja mal Gedanken dazu ob so was irgendwann in Zukunft auch für andere Nutzer Sinn machen könnte.

    Mach weiter so mit deiner Software!

    • 6. August 2017, 22:59 | #16

      Danke für den HInweis und die Idee. Ich nehme den Punkt mal mit, denn ich überarbeite die Filterung von Dateien/Verzeichnissen sowieso komplett. Ich überlege, wie diese Idee in das Konzept hinein passt!
      Gruß,
      Lupinho.

  11. avatar
    Andreas de Lali
    6. August 2017, 20:52 | #17

    @lupinho
    Wenn wir gerade bei Robustheit sind: Wenn das Ziel überraschend doch weniger Platz hat als die Quelle eigentlich einnimmt, erfolgt ein Abbruch OHNE ohne einen überlebenden Index und das nächste Backup fängt wieder komplett bei Null mit dem Kopieren ALLER Dateien an, was bei knapp 5 Mio. Dateien und 2,6 TB wieder ein Wochenende bedeutet. Irgendwie wäre es schön, dass trotz eines Abbruchs wegen Speicherplatz eine existierende Index-Datei erhalten bliebe. Noch besser wäre es, wenn ich die jetzt zwar nicht ganz vollständige aber eben existierende Kopie ohne Index irgendwie trotzdem „wiederverwenden“ könnte.

    • 6. August 2017, 22:53 | #18

      Du kannst mit gedrückter „STRG“-Taste den abgebrochenen Backupsatz zum Vergleichen auswählen. Mit der heute erschienenen Version 2.2.17 ist ein Kommandozeilentool enthalten, mit dem Du einen Backupsatz löschen kannst (auch wenn die Datei/Pfadnamen zu lang für den Windows Explorer sind). In der nächsten „größeren“ Version nehme ich mich des Problems an; dann werden zunächst Backupsätze aufgeräumt, wenn der Speicherplatz bei einer Sicherung zu knapp wird…

  12. avatar
    Axel
    6. August 2017, 23:51 | #19

    Hallo,

    könnte man die Abbruchbedingung von 100 Fehlern als Parameter änderbar machen?
    Oder zumindest in einzelnen Verzeichnissen die Fehler nicht mitzählen?
    Beim Sichern von Netzlaufwerken stolpert das System öfter über geöffnete Dateien
    (meist in einem bestimmten Verzeichnis) und bricht die Sicherung ab,
    ich möchte aber, dass die Sicherung trotzdem durchläuft….
    VG Axel

  13. avatar
    Andreas de Lali
    7. August 2017, 12:08 | #21

    lupinho :
    Du kannst mit gedrückter „STRG“-Taste den abgebrochenen Backupsatz zum Vergleichen auswählen.

    Das hilft mir schon gewaltig weiter. Danke!

  14. avatar
    umij
    16. August 2017, 21:57 | #22

    … schon mal über eine „Family License“ nachgedacht? Ich habe hier meinen Rechner, den meiner Frau und noch einen älteren Deskop. Das würde mit 120 Euro doch ganz schön ins Geld gehen. Viele Softwareanbieter geben ja heutzutage Mengenrabatt bzw. eine „Family License – up to 5 Computer“ oder so…?!

    PS: Ganz tolles Programm!

    • 16. August 2017, 22:30 | #23

      Klar, habe ich! Wenn Du auf den Share-It-Button gehst, siehst Du oben einen Link „Mengenrabatt“. Bei der Professional Lizenz sinkt der Preis ab 3 Lizenzen schon auf 33,30€ pro Lizenz, also 100€ in Summe… Müsste ich ggf. prominenter darstellen.

  15. avatar
    Andreas de Lali
    7. September 2017, 14:45 | #24

    Ich bekomme nun regelmäßig in der Log-Datei die Zeile
    [2017-08-17 01:13:09.12] WRN: „The file „…“ could not be a hardlink to the previous version „….“ because the file system’s link limit is reached. The file was copied.“.
    Sind also mit der von mir aktivierten Duplikaterkennung und dem Beibehalten der inneren Links die möglichen 64k Hardlinks bereits verbraucht worden, weil da im Quell-Ordner irrwitzig viele (> 64k) identische Dateien angelegt wurden – sehe ich das richtig?

    • 7. September 2017, 16:56 | #25

      Ja, so scheint es zu sein. Bis darauf, dass die Grenze nicht bei 64K, sondern bei 1024 liegt.

Kommentar Seiten
1 15 16 17 292
  1. Bisher keine Trackbacks