Tüm uygulama günlüklerini Spark uygulama sürücüsünde programlı olarak toplamak istiyorum. (Bir şey başarısız olduğunda, tüm ilgili günlükleri toplamak ve saklamak istiyorum.) Bunu yapmak için iyi bir yol var mı?Tüm Apache Spark yürütücüsü kayıtlarını alın
Bir fikir, yürütme başına bir bölümle boş bir RDD oluşturmaktır. Daha sonra her bölümün gerçekten farklı bir yürütücüde işlendiğinden emin olun (nasıl bir fikir yok) ve yürütme günlüğünü diskten yüklediğim bir mapPartitions
ve daha sonra bunları uygulamaya almak için bir collect
yapın.
Teşekkürler, bu güzel bir çözüm! Günümüzde çoğunlukla YARN üzerinde çalışıyoruz ve YARN günlük dosyaları için bazı işlemler sunuyor. Bunu nasıl yapılandıracağımı tam olarak anlayamadığım halde, birçok sorunumuzu da çözdü. –