我正在尝试设计一个集成测试框架。我将运行一些用Scala编写的jar并使用spark-submit –master yarn命令运行Spark进程。有什么办法……
您可以使用应用程序名称检查Spark提交的纱线应用程序。
一个。使用应用程序名称参数提交Spark应用
SparkSession.builder.appName("spark-app-name")......
湾使用appname检查Yarn应用程序ID。
yarn application -list | awk '$2 == "spark-app-name" {print $1}'
C。获得应用程序ID后,可以使用Yarn REST API检查Yarn应用程序的状态:
http://<RM_HOST>:8088/ws/v1/cluster/apps/$job_id/state
你可以使用 spark-submit 选项 --name [spark_job_name] 命名你的spark_job并在之后轻松识别他。
spark-submit
--name [spark_job_name]