spark-submit
druckt den größten Teil seiner Ausgabe auf STDERR
Um die gesamte Ausgabe in eine Datei umzuleiten, können Sie Folgendes verwenden:
spark-submit something.py > results.txt 2>&1
Oder
spark-submit something.py &> results.txt
Wenn Sie Spark-Submit auf einem Cluster ausführen, werden die Protokolle mit der Anwendungs-ID gespeichert. Sie können die Protokolle sehen, sobald die Anwendung abgeschlossen ist.
yarn logs --applicationId <your applicationId> > myfile.txt
Sollte Ihnen das Protokoll Ihres Jobs holen
Die applicationId Ihres Jobs wird angegeben, wenn Sie den Spark-Job übermitteln. Sie können dies in der Konsole, in der Sie einreichen, oder in der Hadoop-Benutzeroberfläche sehen.