GNU/Linux >> LINUX-Kenntnisse >  >> Linux

Automatisieren von Webanfragen mit Curl?

Ich habe einige „korporative“ Systeme, die ich bei der Arbeit verwenden muss. Einige von ihnen sind schrecklich, mit Frames, Popups und so weiter.

Ich habe darüber nachgedacht, einige Dinge mit Curl oder ähnlichem zu automatisieren. Ich muss mich anmelden, auf Hyperlinks klicken, einige Daten eingeben und sie werden etwas posten.

Ist es möglich, Curl zu verwenden? Oder sollte ich besser etwas wie Selen verwenden?

Akzeptierte Antwort:

Ja, mit Curl ist das möglich. Am wichtigsten ist es, Cookies zwischen den Verwendungen von curl mit --cookie-jar zu speichern und neu zu laden . Sie können bei Bedarf auch Formulardaten posten. Normalerweise verwende ich ein Firefox-Add-on namens Live HTTP Headers, um festzuhalten, was passiert, wenn ich auf einer Website navigiere. Es zeichnet alle Kopfzeilen auf, aber auch alle Formularbeiträge, was sehr hilfreich ist, wenn Sie versuchen, herauszufinden, was mit Curl zu tun ist. Ich habe Bash-Skripte geschrieben, die verschiedene Curl-Aufrufe automatisieren und Pipes und temporäre Dateien verwenden (mit freundlicher Genehmigung von mktemp ), um eine begrenzte Verarbeitung auf der Webseite durchzuführen, aber wenn ich viel Webseitenverarbeitung durchführen muss, wechsle ich normalerweise zu Perl mit LibWWW.


Linux
  1. SOCKS-Web-Proxy mit SSH erstellen

  2. wget vs curl:So laden Sie Dateien mit wget und curl herunter

  3. Wie lade ich mit cURL einen Tarball von GitHub herunter?

  4. Automatisieren des ausgeführten Befehls unter Linux von Windows mit PuTTY

  5. Paralleler Download mit dem Curl-Befehlszeilendienstprogramm

Verwenden von Curl zum Erstellen von REST-API-Anforderungen

So geben Sie Ihr Terminal mit Streamhut für das Web frei

Verwalten Sie virtuelle KVM-Maschinen mit der Cockpit-Webkonsole

Ubuntu:Verwenden von curl zum Herunterladen eines Bildes

RabbitMQ - Abrufen von Nachrichten aus einer Warteschlange mit Curl

rsync mit Regex, um nur einige Dateien einzuschließen