Ich muss eine FTP-Site (eigentlich einen Website-Quellcode) herunterladen, die eine sehr große Menge relativ kleiner Dateien enthält (das Herunterladen mit FileZilla dauerte mehr als einen Tag, aber ich glaube, es könnte viel schneller heruntergeladen werden, wenn viele Dateien heruntergeladen würden unter einmal). Leider gibt es keinen SSH-Zugriff auf die Seite und keine Möglichkeit, die Dateien serverseitig zu archivieren.
Die Frage ist also zumindest, wie man mit Kommandozeilen-Tools eine ganze FTP-Site in einen Ordner herunterlädt. Besser wäre es, wenn der Download parallelisiert werden könnte, indem viele Dateien gleichzeitig anstatt einzeln heruntergeladen werden.
Akzeptierte Antwort:
Versuchen Sie Folgendes:
wget -r ftp://username:[email protected]
dies geht bis zu 5 Tiefenstufen; zum Erhöhen fügen Sie das -l
hinzu Möglichkeit
Einige Server mögen dieses Verhalten nicht und Sie riskieren, wegen der Auslastung des Servers auf die schwarze Liste gesetzt zu werden. Um dies zu vermeiden, verwenden Sie das -w
Option, um eine bestimmte Anzahl von Sekunden zu warten.
Weitere Informationen (sowie Vorbehalte) finden Sie hier:
http://www.gnu.org/software/wget/manual/wget.html#Recursive-Download
http://linuxreviews.org/quicktips/wget/
--user
und --password
Argumente sind nützlich für Benutzernamen/Passwörter mit Sonderzeichen.