Spark (1.6.0) ve Hadoop (Dağıtım: Amazon 2.7.1) uygulamaları ile EMR kümesi başlatmaya çalışıyorum. Ayırma etiketi, emr-4.4.0'dur. Küme gerektiği şekilde kurulum yapıyor ancak Spark master'ı (ana örneklerde) bir daemon işlemi olarak çalıştırmıyor ve ayrıca çalışan (core) örneklerinde Spark'i bulamıyorum (/usr/altındaki Spark dir lib/ sadece lib ve iplik dizinleri) sahiptir.Spark, kümeyi oluştururken Amazon'un EMR çekirdek/çalışan düğümleri/örneklerine nasıl yüklenir?
Küme kurulduktan sonra Spark ana ve çalışan düğümlerini çalıştırmak istiyorum. (yani, işçiler ustaya otomatik olarak bağlanır ve Spark kümesinin bir parçası haline gelir).
Bunu nasıl sağlıyorsunuz? Yoksa bir şey mi özlüyorum?
Şimdiden teşekkürler!