1 master n1-standart-4 ve 4 çalışan makineden oluşan bir Dataproc kümesini n1-standard-4 olarak değiştirirsem, kaç bölümün oluşturulduğunu nasıl anlarım? varsayılan olarak? 32 bölümüm olduğundan emin olmak istersem, PySpark komut dosyasımda hangi sözdizimini kullanırım? Google Depolama grubundaki bir .csv dosyasında okurum.Dataproc kümesindeki bölümlerin sayısı nasıl belirlenir/denetlenir
birçok bölümleri (Dataproc işler çıkış ekranını kullanarak çalışan nasıl basitçe
myRDD = sc.textFile("gs://PathToFile", 32)
nasıl anlayabilirim mi
Teşekkür