Spark veri çerçevelerinde rowNumber kullanmaya çalışıyorum. Sorgularım, Spark kabuğunda beklendiği gibi çalışıyor. i Tutulma bunları yazmak ve bir kavanoz derlemek Ama ne zaman, bir hata kıvılcım kabuğunda sorguları çalıştırırken ben HiveContext kullanmıyorumSpark içinde pencereleme işlevlerini kullanma
16/03/23 05:52:43 ERROR ApplicationMaster: User class threw exception:org.apache.spark.sql.AnalysisException: Could not resolve window function 'row_number'. Note that, using window functions currently requires a HiveContext;
org.apache.spark.sql.AnalysisException: Could not resolve window function 'row_number'. Note that, using window functions currently requires a HiveContext;
Benim sorguları
import org.apache.spark.sql.functions.{rowNumber, max, broadcast}
import org.apache.spark.sql.expressions.Window
val w = Window.partitionBy($"id").orderBy($"value".desc)
val dfTop = df.withColumn("rn", rowNumber.over(w)).where($"rn" <= 3).drop("rn")
karşı karşıyayım. Bir jar dosyasıyla aynı işlemi çalıştırdığımda neden bir hata döndürdüğünden emin değilim. Ve ayrıca yardımcı olur eğer Spark 1.6.0 komut dosyaları çalıştırıyor. Herkes benzer bir sorunla karşılaştı mı?
Detaylı açıklama için teşekkür ederiz. Bu benim sorunumu çözdü. – dheee
Rica ederim! – eliasah