Pyspark-sparkfiles
提供:Dev Guides
PySpark-SparkFiles
Apache Sparkでは、 sc.addFile (scはデフォルトのSparkContext)を使用してファイルをアップロードし、 SparkFiles.get を使用してワーカーのパスを取得できます。 したがって、SparkFilesは* SparkContext.addFile()*によって追加されたファイルへのパスを解決します。
SparkFilesには次のクラスメソッドが含まれています-
- get(ファイル名)
- getrootdirectory()
それらを詳細に理解しましょう。
get(ファイル名)
SparkContext.addFile()を介して追加されるファイルのパスを指定します。
getrootdirectory()
SparkContext.addFile()を介して追加されたファイルを含むルートディレクトリへのパスを指定します。
----------------------------------------sparkfile.py------------------------------------
from pyspark import SparkContext
from pyspark import SparkFiles
finddistance = "/home/hadoop/examples_pyspark/finddistance.R"
finddistancename = "finddistance.R"
sc = SparkContext("local", "SparkFile App")
sc.addFile(finddistance)
print "Absolute Path -> %s" % SparkFiles.get(finddistancename)
----------------------------------------sparkfile.py------------------------------------
コマンド-コマンドは次のとおりです-
$SPARK_HOME/bin/spark-submit sparkfiles.py
出力-上記のコマンドの出力は-
Absolute Path ->
/tmp/spark-f1170149-af01-4620-9805-f61c85fecee4/userFiles-641dfd0f-240b-4264-a650-4e06e7a57839/finddistance.R