Apache-spark-installation
Apache Spark-インストール
SparkはHadoopのサブプロジェクトです。 したがって、SparkをLinuxベースのシステムにインストールすることをお勧めします。 次の手順は、Apache Sparkのインストール方法を示しています。
ステップ1:Javaインストールの検証
Javaのインストールは、Sparkのインストールに必須の要素の1つです。 次のコマンドを試して、JAVAバージョンを確認してください。
Javaがすでにシステムにインストールされている場合、次の応答が表示されます-
システムにJavaがインストールされていない場合は、次のステップに進む前にJavaをインストールします。
ステップ2:Scalaインストールの検証
Sparkを実装するにはScala言語を使用する必要があります。 次のコマンドを使用してScalaのインストールを確認しましょう。
Scalaがシステムに既にインストールされている場合、次の応答が表示されます-
システムにScalaがインストールされていない場合は、Scalaのインストールの次の手順に進みます。
ステップ3:Scalaをダウンロードする
次のリンクhttp://www.scala-lang.org/download/[Scalaのダウンロード]にアクセスして、Scalaの最新バージョンをダウンロードします。 このチュートリアルでは、scala-2.11.6バージョンを使用しています。 ダウンロード後、ダウンロードフォルダーにScala tarファイルがあります。
ステップ4:Scalaをインストールする
Scalaをインストールするには、以下の手順に従ってください。
Scala tarファイルを抽出します
Scala tarファイルを抽出するには、次のコマンドを入力します。
Scalaソフトウェアファイルを移動する
Scalaソフトウェアファイルをそれぞれのディレクトリ*(/usr/local/scala)*に移動するには、次のコマンドを使用します。
ScalaのPATHを設定
ScalaのPATHを設定するには、次のコマンドを使用します。
Scalaインストールの検証
インストール後、確認することをお勧めします。 Scalaのインストールを確認するには、次のコマンドを使用します。
Scalaがシステムに既にインストールされている場合、次の応答が表示されます-
ステップ5:Apache Sparkのダウンロード
次のリンクhttps://spark.apache.org/downloadsl[Download Spark]にアクセスして、Sparkの最新バージョンをダウンロードします。 このチュートリアルでは、 spark-1.3.1-bin-hadoop2.6 バージョンを使用しています。 ダウンロード後、Spark tarファイルはダウンロードフォルダーにあります。
ステップ6:Sparkをインストールする
Sparkをインストールするには、以下の手順に従ってください。
Spark tarの抽出
次のコマンドは、spark tarファイルを抽出します。
Sparkソフトウェアファイルの移動
Sparkソフトウェアファイルをそれぞれのディレクトリ*(/usr/local/spark)*に移動するための次のコマンド。
Sparkの環境をセットアップする
〜* /。bashrc *ファイルに次の行を追加します。 スパークソフトウェアファイルがある場所をPATH変数に追加することを意味します。
〜/.bashrcファイルを入手するには、次のコマンドを使用します。
ステップ7:Sparkインストールの検証
Sparkシェルを開くための次のコマンドを記述します。
sparkが正常にインストールされると、次の出力が見つかります。