Kendi özel uygulamam var. Apache Kafka ile çalışır ve iki ana bölümden oluşur: Üretici ve Tüketici. Cloudera Manager'daki (HDFS DataNodes gibi) çalışan tüm üreticilerin ve tüketicilerin izlenmesine ol
YARN istemci modunda bir Cloudera kümesinde dağıtılmış bir Spark uygulaması başlatıyorum. Bir süre sonra Cloudera Manager'da bazı hatalar görüyorum. Bazı uygulayıcılar bağlantısı kesilir ve bu sistema
CDH 5.2 kullanıyorum. Komutları çalıştırmak için kıvılcım kabuğu kullanabiliyorum. kıvılcım komutları içeren dosyayı (file.spark) nasıl çalıştırabilirim. İkinci olarak, sHb 5.2'deki scala programların
Kök kümesi kümemdeki disklerden biri okundu. Bu sorunun neden olduğuna emin değilim. Bu volümü datanodedan çıkararak veri kaybı olur mu? Veriyle yüzleşecek olursam nasıl ele alınır?