Merhaba Bağımsız modda bir Spark kümem var, yani dizüstü bilgisayarımda bir Spark-master işlemi ve üç Spark-slave işlemi var (Spark aynı makinedeki küme.Spark sbin/klasöründe stop-all.sh işlevi tüm bağımlı düğümleri durdurmuyor
Master ve slave'lerin çalıştırılması sadece komutları Spark_Folder/sbin/start-master.sh ve Spark_Folder/sbin/stop-master.sh dizinlerinde çalıştırmaktır.
Bununla birlikte, Spark_Folder/sbin/stop-all.sh komutunu çalıştırdığımda, yalnızca bir master ve bir tane çalışmayı durduruyorum, çünkü üç slave çalışıyorum, stop-all.sh çalıştırdıktan sonra hala iki slave çalışıyorum. .
Senaryonun "stop-slaves.sh" içine kazmak ve aşağıda bulunan:
if [ "$SPARK_WORKER_INSTANCES" = "" ]; then
"$sbin"/spark-daemons.sh stop org.apache.spark.deploy.worker.Worker 1
else
for ((i=0; i<$SPARK_WORKER_INSTANCES; i++)); do
"$sbin"/spark-daemons.sh stop org.apache.spark.deploy.worker.Worker $(($i + 1))
done
fi
komut dosyası "SPARK_WORKER_INSTANCES" sayısına dayalı durdurma gibi görünüyor. Ama sayı olmayan bir isim kullanarak köle başlatırsam ne olur?
Ve tüm kıvılcım kümesini tek bir tıklamayla kapatma fikri var mı? ("Pkill -f kıvılcımı *" yi çalıştırmayı biliyorum))).
Yani keyfi bir adla bir köle başlatılabilir, ancak bir tamsayı adlı keşke bunu durdurmak? Bir böcek gibi geliyor. Bunu, Spark projesi kapsamında [Apache JIRA] (https://issues.apache.org/jira/) hakkında rapor etmeyi düşünüyor musunuz? –
@NickChammas henüz rapor vermeyi denedim, ancak JIRA bileti oluşturma hakkım yok gibi görünüyor – keypoint