Inkrementelles Backup möglich?

  • Moinsen Alex,
    ist es eigentlich machbar, daß ich inkrementelle Backups der einzelnen Domains bei Dir bekommen kann?
    Grade heute z.B. bräuchte ich ein Backup einer Domain vom 06.10. Hab ich natürlich nicht und auf dem Server liegt auch immer nur das Backup vom Vortag.
    Ginge das über einen Cronjob oder wie könnte man das frickeln?
    Ich habe halt keinen Bock, das ich mir da jeden Tag Gesamtbackups von mehreren Magentos und Blogs manuell runterlade.

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Um da nochmal nachzuhaken...

    Früher habe ich mit WinSCP über einen Cronjob inkrementelle Backups gemacht.
    Ich ließ WinSCP sich mit dem Server verbinden, fragte neue/veränderte Dateien ab und lud die dann runter oder halt rauf.

    Für Ubuntu habe ich bisher noch nichts dem WinSCP und dessen Funktionalität entsprechendes gefunden - hat da jemand nen Tipp?
    Aber möglichst einen, den ich auch bei Alex' Servern anwenden kann :)

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Inkrementelle Backups gehen ganz einfach per TAR. Kannst dann auch machen wie Du lustig bist, per Cron laufen lassen etc. So sichere ich alle meine Server.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • AW: Inkrementelles Backup möglich?

    Google mal ubuntu inkrementelle Backup .da gibt's Script für . Sollte auch gehen. Bin nacherzählt in Bertingen. Melde mich dann. Bin grade bei einem Bruder helfen... Elektrik und sowas

    Gesendet von meinem GT-I9300 mit Tapatalk 2

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Sodele.
    Ich habe gestern und heute mal nach Backupdingens gesucht. Da gibts ja ne Menge. Meist für Windoof-User ohne Hirn und die meisten anderen sind für Nerds gemacht, die mindestens schon im Alter von 5 Ihren Linux-Power-Abschluß bei der Nerd-Academy gemacht haben.

    Was ich suche, ist ein Tool oder ne Anleitung für ein Script, das mir folgendes ermöglicht:
    # Einmal ein Komplett-Backup einzelner Webspaces eines vServers (Ubuntu/Apache) zu ziehen und lokal (Ubuntu) zu speichern.
    # Dann ein tägliches inkrementelles Backup des Webspaces und der DB (MySql) --> lokal.
    # Es muß in der Lage sein, jederzeit einen vorherigen Zustand des Webspaces und der DB wiederherzustellen.

    Alex hat was von Amanda genuschelt. Das fände ich gut, allerdings müßte er das installieren, weil ich nicht die Rechte dazu habe.

    Meine Frage ist allerdings:
    Wenn ich da nun ein Komplettbackup mache, dann ist meine Internetverbindung erstmal mit lockeren 30 GB zugemüllt. Also 1 Tag oder so.
    Das inkrementelle Backup von ca. 30 Domains ist dann eher Kleinkrams, weil sich da nicht viel ändert ausser der DB und mal nem neuen Artikel und nem Bildchen.
    Frage:
    Wenn ich dann z.B. am 01.10. feststelle, das mein Webspace am 01.08. korrumpiert wurde...
    dürcke ich dann einfach aufs Knöpfchen und stelle den Zustand vom 31.07. wieder her? Und wie ist das dann mit der DB? Im Zeitraum vom 01.08. bis 01.10. sind doch ne Menge Daten in die DB gewandert: Bestellungen, KK-Daten usw. Was passiert dann mit dem Zeugs?

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Also eine fertige Software ist da sicherlich einfacher. Ich habe es mit TAR gemacht und ein eigenes Shell-Script. Aber wegen der DB, das ist ein ganz anderer Punkt. Mein Backup läuft alle paar Stunden inkrementell für die Dateien / Webspace. Die DB wird einfach mit mysqldump gesichert. Eine DB sollte nie als File gesichert werden. Da ist die Gefahr sehr hoch, dass das Data-File dann kompromittiert wird und nicht mehr funktioniert. Eine DB immer als SQL-Dump speichern, dann kann man die auch wieder einspielen, notfalls in eine andere DB-Version.

    Bei Dir sehe ich da aber ein Problem in der Reihenfolge.... Du willst ein Backup "ziehen" und lokal speichern. Das wird nicht gehen. Ein Backup startet uund erstellt man auf der Maschine direkt und "schiebt" es dann an den Zielort.

    Zitat

    Wenn ich da nun ein Komplettbackup mache, dann ist meine Internetverbindung erstmal mit lockeren 30 GB zugemüllt.


    Genau das ist das Problem. Zumal da dann auch noch permanent eine Datenverbindung zum Server bestehen muss, denn Dein lokaler Rechner weiß ja nicht, wann das Backup auf der Maschine fertig ist und er es abholen kann. On-the-fly kannste knicken. Was, wenn da ein Byte verdummbeutelt wird oder in der Übertragung verloren geht, dann kannste das Backup wegwerfen. Was, wenn die Internetverbindung abbricht? Daher auf der Maschine erstellen, dann ist das Backup da, egal was passiert und das dann an ein anderes Ziel schieben. Aber nicht per Internetverbindung, das wäre die Hölle. Schieb das auf einen FTP-Backup-Space oder so, der am Gigabit-Lan hängt, dann ist das Ding recht schnell drüben.

    Alternativ vielleicht auch was für Dich, keine Ahnung ob Alex das umsetzen kann / könnte / würde. Den Server als VM laufen lassen und den kompletten Server klonen.

    Ich hatte damals als Vorlage das hier, aber zwischenzeitlich um gut das 3fache erweitert:
    *** Link veraltet ***

    Ansonsten gibt es in Bezug auf TAR genug Anleitungen:
    *** Link veraltet ***
    *** Link veraltet ***

    Oder, das hatte ich davor, also vor meinem eigenen Script: ReoBack

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • na es gibt ja schon inkrementeles backup und raid spiegelung. also sicher ist es. zusätzlich mache ich systembackups vor updates und habe jeweils ein zusätzliches tägliches backup für kunden.
    klar kann man das machen mit amanda mit zusätzlichem backup, was inkremenmtell ist und von server x nach server y geht. lieber doppelt und 3 fach sichern. backup habe ich grade vom 5. eingespielt. das dauert jetzt ein weilchen bis es durch ist, müsste aber bald soweit sein.

    ich mach mir aber noch gedanken wie man das noch besser machen kann damit der kunde inkrementelles hat und ich damit weniger arbeit habe. und klar muss das auch einfach zu bedienen sein und nach kundenwunsch funktionieren, sofern man genug ressourcen hat.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Das Ding ist halt, das mir das System von Alex - das IMSCP oder wie das halt heißt - ein Daily-Backup macht von jedem einzelnen Webspace.
    Das ist auch ganz nützlich, wenn man rumbastelt wie ich.
    Aber... aber ^^
    Das IMSCP überschreibt halt das Daily-Backup nach 24h. Das liegt dann auf dem Server in er root unter /backups. Ja. Nett. Aber wo ist das Backup des Vortages? Der Vorwoche? Wo lsind die entsprechenden DB-Backups? Weil die DB ist mir wesentlich wichtiger als die doofen php/html-Files.

    Und wie hole ich mir die Daily-Backups inkrementell? Und wo ziehe ich mir die Backups der DB?
    Und arum kann ich das nicht in IMSCP automatisch machen? Und überhaupt und sowieso?

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Schon klar. Aber halt nicht so, wie ich das gerne hätte :)
    Ich hätte gerne (Wunschkonzert) ne anklickbare Sache:
    Restore:
    Jan
    Feb
    Mar
    .
    .
    .

    Tag 01
    Tag 02
    Tag 02
    .
    .
    .

    Restauriere Webspace
    Restauriere DB
    Resaturiere Webspace + DB

    Und dann soll die Sache einafch und schnell genau das wieerherstellen, was ich angeklickt habe. Möglichst on the fly. Und umsonst. Und sofort.

    Wer zuerst "Datenschutz" sagt, hat verloren.