Komplette Webseiten mit wget herunterladen

wget ist ein mächtiges Linux Kommandozeilentool welches hauptsächlich genutzt wird um Daten mit verschiedenen Protokollen (HTTP, FTP, etc.) herunterzuladen.

Neben reinen Dateidownloads bietet wget die Möglichkeit komplette Webseiten herunterzuladen und diese als HTML-Dateien zu speichern. Dabei werden auch Links berücksichtigt, so dass die Website danach komplett offline zur Verfügung steht.

Folgender Befehl lädt eine Website herunter:

wget –html-extension –convert-links -r www.website.xy

Option Beschreibung
 –html-extension Speicher die Website als HTML Datei
 –convert-links Die Internen Links der Website werden angepasst, damit diese offline verfĂĽgbar sind.
-r Rekursiver Download. Die Unterverzeichnisse werden heruntergeladen.
www.website.xy Angabe der Website, die heruntergeladen werden soll.

Ich verwende diesen Befehl um ein Archiv von meinem Blog anzulegen. Regelmäßig ausgeführt, kann ich jederzeit einen Blick in die Vergangenheit werfen und verfolgen, wie sich der Blog entwickelt hat. Da reines HTML generiert wird, gibt es keine weiteren Abhängigkeiten zu PHP und MySQL.

Werbung
Ähnliche Artikel

Werbung

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.