YARN

2016-04-13 12 views
0

aracılığıyla Spark üzerinde bellek yoğun programı çalıştırılamıyor Spark kullanarak bir programı bir Azure kümesinde karşılaştırmaya çalışıyorum. Bunu daha önce EC2'de çalıştırdık ve 150 GB RAM'in yeterli olduğunu biliyoruz. Yöneticiler için birden fazla kurulum denedim ve 160-180GB RAM verdim ancak ne yaptığımdan bağımsız olarak, programın daha fazla bellek talep etmesi nedeniyle program ölüyor.YARN

Ne yapabilirim? Göz önüne almam gereken daha fazla fırlatma seçeneği var mı, akla gelebilecek tüm yürütücü kurulumlarını denedim ve hiçbir şey çalışmak istemiyor gibi görünüyor. Tamamen kayıptayım.

+0

Bu soru çok geniştir. Önce "program ölür" den daha ayrıntılı bir açıklama yaparak deneyebilirsiniz. Şimdi hangi seçenekleri düşündüğünüzü bile bilmiyoruz. Hangi kıvılcım sürümünü kullanıyorsunuz? Hadoop'un hangi sürümü üzerinde çalışıyorsunuz? Yöneticiler için ne kadar hafıza var? Sürücü mü? – eliasah

+0

@eliasah Sadece çok fazla bilmiyorum, detay bilge gerçekten sadece ölüyor, icracı hafızası hataları var ve sonunda "çok fazla icracı başarısızlığı" na gider. Diğer bilgilere gelince, 1.6.0 kullanıyorum, Hadoop versiyonunun (hangisi HDInsight'ın kullandığı) hiçbir fikri yok. Birden fazla yönetici ayarını denedim, hiçbiri işe yaramıyor. –

+0

Uygulamanızı yürüten gönderme komutunu paylaşabilir misiniz? – eliasah

cevap

0

Komutunuz için, 7 yönetici ve her biri 40 g bellek belirtin. Toplamda 280G bellek var, ama kümenizin sadece 160-180 G hafızası olduğunu mu söylediniz? Sadece 150G bellek gerekiyorsa, bu kıvılcım gönderimi bu şekilde nasıl yapılandırılır?

HDI küme düğüm türünüz nedir ve bunlardan kaç tane oluşturdu?

Daha önce EC2'de YARN kullanıyor muydunuz? Bu durumda, yapılandırma aynı mı?

+0

Bu executor kurulumu yanlış, şimdi çalıştırmak için doğru bir tane var. Her birinde 8 çekirdek bulunan 4 düğüm var, düğüm başına 56GB. Sadece normal gönderim olan EC2'de YARN kullanmadık, ancak Azure'un YARN olmadan kümeye göndermenizi sağladığını düşünmüyorum. –

İlgili konular