Apache Spark'de bölümlemenin nasıl yapıldığını anlamaya çalışıyorum. Yardımcı olabilir misiniz lütfen?Bölümleme Spark'de nasıl çalışır?
- bir ana ve 1 çekirdek her
- bir dosya
boyutunda içinde count.txt
10 MB ile iki düğüm kaç bölümleri oluşturmak aşağıdaki vermez: Burada
rdd = sc.textFile(count.txt)
Dosyanın boyutunun bölümlerin sayısı üzerinde herhangi bir etkisi var mı?
Neden cevabı kabul/yorum yapmadan bıraktın? – gsamaras