GNU/Linux >> LINUX-Kenntnisse >  >> Linux

Wie entpacke ich alle externen Links einer Webseite und speichere sie in einer Datei?

Sie benötigen 2 Werkzeuge, Luchs und awk , versuchen Sie Folgendes:

$ lynx -dump http://www.google.com.br | awk '/http/{print $2}' > links.txt

Wenn Sie Nummerierungszeilen benötigen, verwenden Sie den Befehl nl , versuchen Sie Folgendes:

$ lynx -dump http://www.google.com.br | awk '/http/{print $2}' | nl > links.txt

Hier ist eine Verbesserung zu leltons Antwort:Sie brauchen awk überhaupt nicht, denn lynx hat einige nützliche Optionen.

lynx -listonly -nonumbers -dump http://www.google.com.br

wenn Sie Zahlen wollen

lynx -listonly -dump http://www.google.com.br

Linux
  1. So extrahieren Sie die tar.gz-Datei in Linux mithilfe der Befehlszeile

  2. Es steht alles in der Dot-Datei - YADM und Homeshick

  3. Alle Terminalausgaben in einer Datei speichern?

  4. Wie finde ich den Typ einer Img-Datei und mounte sie?

  5. Was sind symbolische Links (Soft Links) und wie erstellt man sie unter Linux

Dateipfade verstehen und wie man sie unter Linux verwendet

So erhalten Sie das aktuelle Datum und die aktuelle Uhrzeit in Python

So verwenden Sie Sudo und die Sudoers-Datei

So speichern Sie eine Datei in Vim / Vi und beenden den Editor

So speichern Sie eine Datei in Vi / Vim und beenden den Editor

So nehmen Sie mit Audacity Audio auf und speichern es als MP3-Datei