Komplette Webseiten mit wget herunterladen

wget ist ein mÀchtiges Linux Kommandozeilentool welches hauptsÀchlich genutzt wird um Daten mit verschiedenen Protokollen (HTTP, FTP, etc.) herunterzuladen.

Neben reinen Dateidownloads bietet wget die Möglichkeit komplette Webseiten herunterzuladen und diese als HTML-Dateien zu speichern. Dabei werden auch Links berĂŒcksichtigt, so dass die Website danach komplett offline zur VerfĂŒgung steht.

Folgender Befehl lÀdt eine Website herunter:

wget –html-extension –convert-links -r www.website.xy

Option Beschreibung
 –html-extension Speicher die Website als HTML Datei
 –convert-links Die Internen Links der Website werden angepasst, damit diese offline verfĂŒgbar sind.
-r Rekursiver Download. Die Unterverzeichnisse werden heruntergeladen.
www.website.xy Angabe der Website, die heruntergeladen werden soll.

Ich verwende diesen Befehl um ein Archiv von meinem Blog anzulegen. RegelmĂ€ĂŸig ausgefĂŒhrt, kann ich jederzeit einen Blick in die Vergangenheit werfen und verfolgen, wie sich der Blog entwickelt hat. Da reines HTML generiert wird, gibt es keine weiteren AbhĂ€ngigkeiten zu PHP und MySQL.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.