2016-07-14 16 views
10

Bağlam: 2 sütunlu bir DataFrame sahibiyim: sözcük ve vektör. "Vektör" sütun tipinin VectorUDT olduğu yerlerde.Vektör, sütunlara nasıl bölünür - PySpark kullanarak

Bir Örnek:

word | vector 

assert | [435,323,324,212...] 

Ve bu olsun istiyorum:

word | v1 | v2 | v3 | v4 | v5 | v6 ...... 

assert | 435 | 5435| 698| 356|.... 

Soru: can Her boyut için birkaç sütun vektörler ile bir sütun bölmek nasıl

pyspark kullanarak? peşin

Teşekkür

cevap

16

Olası bir yaklaşım RDD için ve dönüştürmek amacıyla geçerli:

from pyspark.ml.linalg import Vectors 

df = sc.parallelize([ 
    ("assert", Vectors.dense([1, 2, 3])), 
    ("require", Vectors.sparse(3, {1: 2})) 
]).toDF(["word", "vector"]) 

def extract(row): 
    return (row.word,) + tuple(row.vector.toArray().tolist()) 

df.rdd.map(extract).toDF(["word"]) # Vector values will be named _2, _3, ... 

## +-------+---+---+---+ 
## | word| _2| _3| _4| 
## +-------+---+---+---+ 
## | assert|1.0|2.0|3.0| 
## |require|0.0|2.0|0.0| 
## +-------+---+---+---+ 

alternatif bir çözüm, UDF oluşturmak olacaktır:

from pyspark.sql.functions import udf, col 
from pyspark.sql.types import ArrayType, DoubleType 

def to_array(col): 
    def to_array_(v): 
     return v.toArray().tolist() 
    return udf(to_array_, ArrayType(DoubleType()))(col) 

(df 
    .withColumn("xs", to_array(col("vector"))) 
    .select(["word"] + [col("xs")[i] for i in range(3)])) 

## +-------+-----+-----+-----+ 
## | word|xs[0]|xs[1]|xs[2]| 
## +-------+-----+-----+-----+ 
## | assert| 1.0| 2.0| 3.0| 
## |require| 0.0| 2.0| 0.0| 
## +-------+-----+-----+-----+ 
+0

Performans açısından, öyle * .map/.toDF fonksiyonlarını kullanmak için çok daha akıllıdır, çünkü neredeyse her zaman UDF uygulamasından daha hızlı olacaktır. [Kıvılcım 2.2'den daha fazla bir 'vectorized udf' tanımı kullanmıyorsanız] – tmarthal