Samstag, 6. April 2013

Webseiten speichern

Gerade wollte ich ein Backup meines Blogs erstellen. Dazu wollte ich nicht alle Daten auf dem Server kopieren, sondern lediglich die Daten, die auch aus dem Blog heraus verlinkt werden.

Nach einiger Suche habe ich mir folgende Programme angeschaut und nenne sie hier, damit ich beim nächsten mal nicht mehr suchen muss und vielleicht hilft es ja auch anderen weiter:

  • httpripper ist ein in python implementierter Proxy, der die besuchten Seiten einfach mitschneidet
  • Backstreet ist eine einfach zu bedienende Shareware Lösung
  • httrack ist ein in c/c++ implementierter Webseiten-Downloader der über die Kommandozeile oder eine nicht gerade hübsche, aber funktionale Oberfläche gesteuert werden kann

Ich habe schließlich httrack genommen und nach einiger Eingewöhnung nun eine semi-automatische Spiegelung meiner Webseite erstellt.