SparkConfig
ve SparkContext
sahip olan yürütücülerin Java (veya Scala) kod miktarını nasıl yapılandırabilirim? Sürekli 2 yönetici görüyorum. Görünüşe göre spark.default.parallelism
çalışmıyor ve farklı bir şeyle ilgili.Spark yürütücülerinin miktarı nasıl ayarlanır?
Sadece küme boyutuna eşit olacak sayıda yürütücüyü ayarlamanız gerekiyor ancak her zaman yalnızca 2 tanesi var. Küme büyüklüğümü biliyorum. Bu önemliyse, YARN üzerinde koşuyorum.
Özellik spark.default.parallelism, birleştirmek, azaltmakByKey, groupBy gibi işlemleri azaltmak içindir. – Rags