ile Spark nasıl kullanılır aşağıdaki hatayı alıyorum Ben spark.I bu verdiğimde pencere functions.But erişmek için sparkSQL içinde HiveContext kullanmaya çalışıyorum için yeni HiveContext
import org.apache.spark.sql.hive.HiveContext
:
error: object hive is not a member of package org.apache.spark.sql
Aşağıdaki bağımlılıkları build.sbt dosyasına eklemem gereken çözümü buldum. Ben ben değiştirmem gerekecek kıvılcım bu build.sbt dosyasını bulmak gerekir
libraryDependencies += "org.apache.spark" %% "spark-hive" % "1.5.2
Ama bilmiyorum,
/home/cloudera/spark-1.5.2/build/sbt
(veya)
/home/cloudera/spark-1.5.2/sbt/sbt
(veya)
/home/cloudera/spark-1.5.2/project/plugins.sbt
Lütfen bana yardım edin bağımlılıkları build.sbt dosyasına eklemek için.
Yani, Spark'i sıfırdan oluşturmaya mı çalışıyorsunuz? – zero323
evet .. Ben sıfırdan inşa etmeye çalışıyorum.Ama yapmadan önce build.sbt dosyasında bağımlılıkları eklemem gerekiyor.Filmde build.sbt dosyasını hangi klasörde almalıyım? – Revathi