如何从Java(或Scala)代码中配置具有SparkConfig和的执行器数量SparkContext?我经常看到2个执行者。看起来像是spark.default.parallelism行不通的,并且有一些不同之处。
我只需要将执行程序的数量设置为等于集群大小,但是总是只有2个。我知道我的集群大小。如果这很重要,我会在YARN上运行。