Merhaba ben az veri ile lokal olarak iyi çalışır bir Spark iş var ama İPLİK üzerinde planlamak zaman aşağıdaki HATA oluyoruz ve yavaş yavaş tüm uygulayıcıların arayüzünden kaldırılırsa ve benim işimYARN istemci modunu kullanırken Spark Executors'ın kaybolması nasıl önlenir?
15/07/30 10:18:13 ERROR cluster.YarnScheduler: Lost executor 8 on myhost1.com: remote Rpc client disassociated
15/07/30 10:18:13 ERROR cluster.YarnScheduler: Lost executor 6 on myhost2.com: remote Rpc client disassociated
başarısız yürütmek Ben iplik istemci modunda zamanlama kıvılcım işi için aşağıdaki komutu kullanın
./spark-submit --class com.xyz.MySpark --conf "spark.executor.extraJavaOptions=-XX:MaxPermSize=512M" --driver-java-options -XX:MaxPermSize=512m --driver-memory 3g --master yarn-client --executor-memory 2G --executor-cores 8 --num-executors 12 /home/myuser/myspark-1.0.jar
ben rehberlik lütfen sorunun ne olduğunu bilmiyorum. Spark’de yeniyim. Şimdiden teşekkürler.
Yürütücü belleğini artırmayı deneyin. Yönetici başarısızlıklarının yaygın nedenlerinden biri yetersiz bellek. execute daha fazla bellek harcadığında, atanan iplik onu öldürür. Sizin tarafından sağlanan günlükleri, başarısızlık nedeni hakkında hiçbir ipucu verir. executor logs kontrol etmek için "iplik günlükleri -applicationId" kullanın. –
banjara
Sadece uzun süren kıvılcım işlerini çalıştırdığımızda görüyorum. Bir hafıza sorunu olsaydı, başlangıçta başarısız olmalıydı. –
Bu sorunu nasıl çözeceğinizi anladınız mı? Aynı kişinin, yürütücünün anılarını yitirdiğini doğrulayan hiçbir kayıt olmadan gözlemliyorum. Ben sadece bu sürücü execist öldürdü ve bu execute SIGTERM sinyali var, sonra benim uygulama FetchFailedException: Executor kayıtlı değil tek görev başarısız çünkü her zaman başarısız sayısız sahne yeniden deneme geçer. Bazı nedenlerden ötürü bu tür bir görev hatası farklı ana makinede bile denenmez, tüm aşama tekrar denenir. –