2016-03-29 22 views
1

Kıvılcım'a nispeten yeniyim ve python ve spark SQL kullanarak basit bir betik yazdım. Benim problemim, yürütmenin başlangıç ​​aşamasında tamamen doğru olduğu, ancak yavaş yavaş yavaşlattığı ve son fazın sonunda tüm uygulamanın askıda kaldığıdır.Spark Tek Başına Uygulama son noktasında kilitleniyor

16/03/29 09:05:50 INFO TaskSetManager: Finished task 96.0 in stage 416.0 (TID 19992) in 41924 ms on 10.9.0.7 (104/200) 
16/03/29 09:05:50 INFO TaskSetManager: Finished task 108.0 in stage 416.0 (TID 20004) in 24608 ms on 10.9.0.10 (105/200) 
16/03/29 09:05:50 INFO TaskSetManager: Finished task 105.0 in stage 416.0 (TID 20001) in 24610 ms on 10.9.0.10 (106/200) 
16/03/29 09:05:55 INFO TaskSetManager: Starting task 116.0 in stage 416.0 (TID 20012, 10.9.0.10, partition 116,NODE_LOCAL, 2240 bytes) 
16/03/29 09:06:31 INFO TaskSetManager: Finished task 99.0 in stage 416.0 (TID 19995) in 78435 ms on 10.9.0.7 (110/200) 
16/03/29 09:06:40 INFO TaskSetManager: Starting task 119.0 in stage 416.0 (TID 20015, 10.9.0.10, partition 119,NODE_LOCAL, 2240 bytes) 
16/03/29 09:07:12 INFO TaskSetManager: Starting task 122.0 in stage 416.0 (TID 20018, 10.9.0.7, partition 122,NODE_LOCAL, 2240 bytes) 
16/03/29 09:07:16 INFO TaskSetManager: Starting task 123.0 in stage 416.0 (TID 20019, 10.9.0.7, partition 123,NODE_LOCAL, 2240 bytes) 
16/03/29 09:07:28 INFO TaskSetManager: Finished task 111.0 in stage 416.0 (TID 20007) in 110198 ms on 10.9.0.7 (114/200) 
16/03/29 09:07:52 INFO TaskSetManager: Starting task 124.0 in stage 416.0 (TID 20020, 10.9.0.10, partition 124,NODE_LOCAL, 2240 bytes) 
16/03/29 09:08:08 INFO TaskSetManager: Finished task 110.0 in stage 416.0 (TID 20006) in 150023 ms on 10.9.0.7 (115/200) 
16/03/29 09:08:12 INFO TaskSetManager: Finished task 113.0 in stage 416.0 (TID 20009) in 154120 ms on 10.9.0.7 (116/200) 
16/03/29 09:08:16 INFO TaskSetManager: Finished task 116.0 in stage 416.0 (TID 20012) in 145691 ms on 10.9.0.10 (117/200) 

bütün uygulama asılır Bundan sonra - Burada terminalde aşağıdaki var

hivectx.registerDataFrameAsTable(aggregatedDataV1,"aggregatedDataV1") 
q1 = "SELECT *, (Total_Sale/Sale_Weeks) as Average_Sale_Per_SaleWeek, (Total_Weeks/Sale_Weeks) as Velocity FROM aggregatedDataV1" 
aggregatedData = hivectx.sql(q1) 
aggregatedData.show(100) 

uygulama hanged- olsun kod parçacığı olduğunu. Ben 3 Düğüm Kümeler kullanıyorum

export SPARK_PUBLIC_DNS="azuremaster.westus.cloudapp.azure.com" 
export SPARK_EXECUTOR_INSTANCES=1 
export SPARK_EXECUTOR_CORES=2 
export SPARK_EXECUTOR_MEMORY=3G 
export SPARK_MASTER_OPTS="-Dspark.deploy.defaultCores=1" 
export SPARK_WORKER_PORT="8888" 
export PYSPARK_PYTHON=/usr/bin/python3 
export PYSPARK_DRIVER_PYTHON=python3 
export SPARK_HIVE=true 

: Aşağıdaki yapılandırma ile benim spark-env.sh dosya var. Bir Usta 2 damar ve 4 GB Bellek ve diğer iki İşçi 4 damar ve 7 GB Bellek ile ile.

Ben şimdiye kadar şu denedi -

  • kaynakların farklı miktarlarda/Azalan vasiyetini Artan infaz çekirdekleri
  • hiçbir artırılması.

Ben -

  1. Kıvılcım -1.6.0
  2. Java 7
  3. scala 2.10.4
  4. Prebuilt Hadoop 2.3
  5. Prebuilt Kovan

Uygulamayı 2 saat çalıştırdıktan sonra givin g hatalar. Bir yapılandırmayı tahmin ediyorum

The terminal window

ayarlı olması gerekir ama hangisi hiçbir fikrim yok. Birileri nelerin olup bittiğine dair bilgi sahibi olup bazı yardım önerileri önerirse minnettar olacağım.

Şimdiden teşekkürler.

+0

Bu aşama için kıvılcım UI'sinden DAG görselleştirmelerinizin görüntüsünü kaydeder misiniz? –

+0

@Abhishek Anand Sorunu düzenledim –

cevap

0

Bellek yetersizliğinizden dolayı sürücü belleğini çarpmanız gerekebilir. Varsayılan olarak bu 2GB. Kıvılcım gönderen bayrak çalışmaları ile benzer sorunlara ve özel konfigürasyonlara geçtim.

bu deneyin:

spark-submit --driver-memory = 4g app.py

bu işe yaramazsa; Yürütme sırasında ne kadar bellek kullanıldığını görmek için kıvılcım ağı kullanıcı arayüzüne veya gangliyona bakmanız gerekir. Ganglia, ne kadar bellek kullanıldığını ve iş için daha fazla belleğe ihtiyacınız olduğunu görmenize izin verecektir.

İlgili konular