Spark'ın bellek özelliğinde anlamaya çalışıyorum. Bu süreçte temel olarak, veri setlerini kullanarak çoğaltma yapmadan hata toleransı sağlayan ve veri kümelerini kontrol ederek yeniden hesaplama 'u ye
Scala'da, bir deneme olarak Spark kullanarak Tachyon'da bir sıra dosyası oluşturup onu tekrar okuyun. Bu dosyayı da Spark komutunu kullanarak Tachyon'dan silmek istiyorum. val rdd = sc.parallelize(Arr