GNU/Linux >> LINUX-Kenntnisse >  >> Linux

Warum handelt „wget -r -e Robots=off Http://ccachicago.org“ nicht rekursiv?

Ich versuche, http://ccachicago.org rekursiv herunterzuladen , und erhalte genau eine Datei, die Wurzel index.html , heruntergeladen.

Ich habe mir Download rekursiv mit wget angesehen und angefangen, das empfohlene -e robots=off zu verwenden , aber es verhält sich immer noch gleich.

Wie, mit wget oder ein anderes Tool, kann ich eine Kopie der Website herunterladen?

Akzeptierte Antwort:

Sie fragen wget um eine rekursive zu machen Download von http://ccachicago.org , aber diese URL stellt keinen direkten Inhalt bereit. stattdessen ist es nur eine Umleitung zu http://www.ccachicago.org (was Sie wget nicht mitgeteilt haben rekursiv abzurufen)..

wenn Sie wget sagen um die richtige URL herunterzuladen, funktioniert es:

wget -r -e robots=off http://www....

Linux
  1. Wie behandelt Linux mehrere aufeinanderfolgende Pfadtrennzeichen (/home////username///file)?

  2. Bash =~ Regex und Https://regex101.com/?

  3. „Cache-Verzeichnis /home//.composer/cache/repo/https—packagist.org/ kann nicht erstellt werden, oder Verzeichnis ist nicht beschreibbar. Ohne Cache fortfahren“?

  4. Installieren Sie Binärdateien in /bin, /sbin, /usr/bin und /usr/sbin, Interaktionen mit --prefix und DESTDIR

  5. statische HTTP-Verzeichnisse werden nicht bereitgestellt

Warum zeigt /bin/sh auf /bin/dash und nicht auf /bin/bash?

So verwenden Sie wget, um Dateien über Proxy herunterzuladen

Warum funktioniert find -exec mv {} ./target/ + nicht?

Wie finde ich heraus, aus welchem ​​Ordner ein Prozess läuft?

unix:///var/run/supervisor.sock keine solche Datei

Sollten Websites gemäß der empfohlenen Verwendung in /var/ oder /usr/ leben?