Vannak GUI-val rendelkező programok is weboldal tükrözéshez, mint például a Windows-os HTTrack vagy az OSX-es SiteSucker, amelyek kiválóan működnek addig, amíg valami speciális eset elő nem kerül. Pl hibás/lejárt weboldal tanusítvány, robots.txt kivételek, egyebek... Erre megoldás a wget OSX és Linux alatt következő parancssori argumentumokkal:
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--no-check-certificate \
-e robots=off \
--domains \
wiki-old.sch.bme.hu \
http://wiki-old.sch.bme.hu/bin/view/Infoalap/
Ez tükrözi a http://wiki-old.sch.bme.hu/bin/view/Infoalap/ oldalt ügyelve arra, hogy ne lépjen ki a wiki-old.sch.bme.hu tartományból és véletlenül az egész internetet töltse le. Rekurzívan mindent letölt az oldal kiegészítőkkel együtt (css, favicon...) html formátumban. A linkeket konvertálja helyi megjelenítéshez. A fájlneveket Windows-osítja, azaz kiirtja belőle a speciális *unix rendszereken megengedett karaktereket a fájlnévből. Kihagyja a robots.txt feldolgozását és a tanusítvány ellenőrzését.
Opcionálisan hozzáadható, szerintem fontos kapcsolók:
N helyére egy számot kell írni, és ilyen mélyek követi a linkeket.
--level=N
Random időt vár a kérések között, hogy ne legyen feltűnő a szervernek és blokkoljon minket.
--random-wait
Amúgy a teljes dokumentáció ITT.
A bejegyzés trackback címe:
Kommentek:
A hozzászólások a vonatkozó jogszabályok értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a Felhasználási feltételekben és az adatvédelmi tájékoztatóban.