2016-10-11 19 views
8

Spark 2.0'ı kullanarak, satırların bir veri çerçevesini vaka sınıflarının bir veri çerçevesine dönüştürmenin mümkün olduğunu görüyorum. Bunu yapmaya çalıştığımda, spark.implicits._ ithal etmek için bir mesajla karşılaştım. Sahip olduğum konu, Intellij'in geçerli bir içe aktarma ifadesi olarak kabul etmemesidir, bunun taşındığını ve mesajın güncellenmediğini veya kurulum ayarlarımda doğru paketlerin bulunmadığını merak ediyorum. spark.implicits denilen hiçbir paket var benim build.sbtSpark 2.0 kıvılcım çıkarması yok

libraryDependencies ++= Seq(
    "org.mongodb.spark" % "mongo-spark-connector_2.11" % "2.0.0-rc0", 
    "org.apache.spark" % "spark-core_2.11" % "2.0.0", 
    "org.apache.spark" % "spark-sql_2.11" % "2.0.0" 
) 

cevap

26

olduğunu.

spark Burada SparkSession anlamına gelir. kodunuzda bir yere kendi SparkSession tanımladıysanız,

import spark.implicits._ 

sonra buna göre ayarlayın: Eğer oturumu zaten spark olarak tanımlanır Repl içeride ise yüzden sadece yazabilirsiniz

val mySpark = SparkSession 
    .builder() 
    .appName("Spark SQL basic example") 
    .config("spark.some.config.option", "some-value") 
    .getOrCreate() 

// For implicit conversions like converting RDDs to DataFrames 
import mySpark.implicits._ 
3

Spark SparkSession için spark tanımlayıcı kullanıldı. Bu karışıklığa neden olan şeydir. Almak

val ss = SparkSession 
    .builder() 
    .appName("test") 
    .master("local[2]") 
    .getOrCreate() 

doğru yolu, gibi bir şey ile oluşturduysanız implicits

import ss.implicits._ 

bu yardımcı olur bana bildirin, olurdu. Şerefe.

+0

RDD'mizi import spark.implicits._' olmadan DadaFrame'e nasıl dönüştürebilirim? ".toDF" metodu gibi bir şeye ihtiyacım var ama "spark.implicits" –

+1

olmadan bir Rdd [satır] varsa, spark.createDataFrame (rdd) yapabilirsiniz –

İlgili konular