0

ile Spark nasıl kullanılır aşağıdaki hatayı alıyorum Ben spark.I bu verdiğimde pencere functions.But erişmek için sparkSQL içinde HiveContext kullanmaya çalışıyorum için yeni HiveContext

import org.apache.spark.sql.hive.HiveContext 

:

error: object hive is not a member of package org.apache.spark.sql

Aşağıdaki bağımlılıkları build.sbt dosyasına eklemem gereken çözümü buldum. Ben ben değiştirmem gerekecek kıvılcım bu build.sbt dosyasını bulmak gerekir

libraryDependencies += "org.apache.spark" %% "spark-hive" % "1.5.2 

Ama bilmiyorum,

/home/cloudera/spark-1.5.2/build/sbt 

(veya)

/home/cloudera/spark-1.5.2/sbt/sbt 

(veya)

/home/cloudera/spark-1.5.2/project/plugins.sbt 

Lütfen bana yardım edin bağımlılıkları build.sbt dosyasına eklemek için.

+0

Yani, Spark'i sıfırdan oluşturmaya mı çalışıyorsunuz? – zero323

+0

evet .. Ben sıfırdan inşa etmeye çalışıyorum.Ama yapmadan önce build.sbt dosyasında bağımlılıkları eklemem gerekiyor.Filmde build.sbt dosyasını hangi klasörde almalıyım? – Revathi

cevap

2

Spark'i Hive desteğiyle kurmak için yapı tanımlarında herhangi bir değişiklik yapılmasına gerek yoktur. Sadece gerekli profilleri

  • Maven

    mvn -Phive -Phive-thriftserver -DskipTests ... clean package 
    
  • SBT bir bağımlılık kendi projelerini inşa yalnızca gerektiğinde olduğu gibi spark-hive ekleme

    build/sbt -Phive -Phive-thriftserver ... assembly 
    

aktive olmasını sağlar.

Ayrıca, Spark yüklemeleri sayfasındaki önceden oluşturulmuş (spark-[SPARK-VERSION]-bin-hadoop[HADOOP-VERSION].tgz dosya) ikili dosyalarının zaten Hive desteği ile oluşturulmadığını lütfen unutmayın.

+0

Cevabınız için teşekkür ederiz. – Revathi

İlgili konular