Önceki yanıtlarda açıklandığı gibi, bir Spark kümesinin ayrıntılarını değiştirmenin en ideal yolu corresponding log4j.properties değiştiriyor. dataproc Kıvılcım İplik üzerinde çalışan üzerinde Ancak, bu nedenle küresel yapılandırmayı ayarlamak zorunda ve/usr/lib/kıvılcım/confSpark için günlük seviyelerini ayarlamak için dataproc'un en zarif ve sağlam yolu nedir?
Çeşitli öneri değil: dataproc Açık
biz birkaç gcloud komutları ve özelliklere sahip biz geçebilir küme oluşturma sırasında.
--properties komut yapılandırma dosyaları değiştiremez: See documentation mümkün dokümanlardan gibi değil belki
--properties 'log4j:hadoop.root.logger=WARN,console'
belirterek/etc/Hadoop/conf altında log4j.properties değiştirmek mi yukarıda gösterilmemiştir.
başka yolu da küme init sırasında bir kabuk kullanmak ve çalıştırmak olacaktır sed:
# change log level for each node to WARN
sudo sed -i -- 's/log4j.rootCategory=INFO, console/log4j.rootCategory=WARN, console/g'\
/etc/spark/conf/log4j.properties
sudo sed -i -- 's/hadoop.root.logger=INFO,console/hadoop.root.logger=WARN,console/g'\
/etc/hadoop/conf/log4j.properties
Ama bu yeterli mi yoksa biz de env değişken hadoop.root.logger değiştirmek gerekiyor?
İkinci yol aslında benim için çalışıyor, ancak zaman ve sürümlerde değişebilecek yapılandırma dosyalarını düzenlemeden daha iyi bir yol olup olmadığını merak ediyorum. – Frank