我正在YARN提交火花应用程序,并提供以下配置
conf.set(“spark.executor.cores”,“3”)conf.set(“spark.executor.memory”,“14g”)conf.set(“spark.executor.instances”,“4”)conf.set(” …
在火花配置中 文档 你会看到以下内容:
Spark属性主要可以分为两种:一种与deploy相关,如“spark.driver.memory”,“spark.executor.instances”,在运行时通过SparkConf以编程方式设置时,这种属性可能不受影响,或者行为取决于您选择的集群管理器和部署模式,因此建议通过配置文件或spark-submit命令行选项进行设置;另一个主要与Spark运行时控件有关,比如“spark.task.maxFailures”,这种属性可以以任何一种方式设置。
你想要从你的设置中设置的大部分设置 spark-submit 命令行,而不是代码。无论如何,这通常是一种更好的做法,因此您可以使用不同的参数启动作业,而无需重新编译它。
spark-submit
你想要的东西是这样的:
spark-submit --num-executors 4 --executor-cores 3 --executor-memory 14g --driver-memory 1g --driver-cores 5 --class <main_class> <your_jar>