Apache-kafka-integration-spark
Apache Kafka-Sparkとの統合
この章では、Apache KafkaをSpark Streaming APIと統合する方法について説明します。
Sparkについて
Spark Streaming APIは、ライブデータストリームのスケーラブルで高スループットのフォールトトレラントストリーム処理を可能にします。 データは、Kafka、Flume、Twitterなどの多くのソースから取得でき、map、reduce、join、windowなどの高レベル関数などの複雑なアルゴリズムを使用して処理できます。 最後に、処理されたデータをファイルシステム、データベース、ライブダッシュボードにプッシュできます。 弾力性のある分散データセット(RDD)は、Sparkの基本的なデータ構造です。 オブジェクトの不変の分散コレクションです。 RDDの各データセットは論理パーティションに分割され、クラスターの異なるノードで計算できます。
Sparkとの統合
Kafkaは、Sparkストリーミング用の潜在的なメッセージングおよび統合プラットフォームです。 Kafkaは、リアルタイムのデータストリームの中央ハブとして機能し、Spark Streamingの複雑なアルゴリズムを使用して処理されます。 データが処理されると、Spark Streamingはさらに別のKafkaトピックに結果を公開したり、HDFS、データベース、ダッシュボードに保存したりできます。 次の図は、概念的なフローを示しています。
それでは、Kafka-Spark APIの詳細を見ていきましょう。
SparkConf API
Sparkアプリケーションの構成を表します。 さまざまなSparkパラメーターをキーと値のペアとして設定するために使用されます。
「 SparkConf
」クラスには次のメソッドがあります-
- * set(string key、string value)*-設定変数を設定します。
- * remove(string key)*-設定からキーを削除します。
- * setAppName(string name)*-アプリケーションのアプリケーション名を設定します。
- * get(string key)*-キーを取得
StreamingContext API
これは、Spark機能の主要なエントリポイントです。 SparkContextは、Sparkクラスターへの接続を表し、クラスター上でRDD、アキュムレーター、およびブロードキャスト変数を作成するために使用できます。 署名は次のように定義されます。
- master -接続先のクラスターURL(例: mesos://host:port、spark://host:port、local [4])。
- appName -クラスターWeb UIに表示するジョブの名前
- batchDuration -ストリーミングデータがバッチに分割される時間間隔
新しいSparkContextに必要な構成を提供して、StreamingContextを作成します。
- conf -Sparkパラメーター
- batchDuration -ストリーミングデータがバッチに分割される時間間隔
KafkaUtils API
KafkaUtils APIは、KafkaクラスターをSparkストリーミングに接続するために使用されます。 このAPIには、以下のように定義されたsignifi-cantメソッド「 createStream
」署名があります。
上記のメソッドは、Kafka Brokersからメッセージをプルする入力ストリームを作成するために使用されます。
- ssc -StreamingContextオブジェクト。
- zkQuorum -Zookeeperクォーラム。
- groupId -このコンシューマのグループID。
- * topics-消費するトピックのマップを返します。
- storageLevel -受信したオブジェクトの保存に使用するストレージレベル。
KafkaUtils APIには別のメソッドcreateDirectStreamがあります。これは、レシーバーを使用せずにKafka Brokersからメッセージを直接プルする入力ストリームを作成するために使用されます。 このストリームは、Kafkaからの各メッセージが1回だけ変換に含まれることを保証できます。
サンプルアプリケーションはScalaで実行されます。 アプリケーションをコンパイルするには、 "` sbt` "、scalaビルドツール(mavenに類似)をダウンロードしてインストールしてください。 メインアプリケーションコードを以下に示します。
構築スクリプト
spark-kafka統合は、spark、sparkストリーミング、およびspark kafka統合jarに依存しています。 新しいファイル「 build.sbt
」を作成し、アプリケーションの詳細とその依存関係を指定します。 「 sbt
」は、アプリケーションをコンパイルおよびパックするときに必要なjarをダウンロードします。
コンパイル/パッケージング
次のコマンドを実行して、アプリケーションのjarファイルをコンパイルおよびパッケージ化します。 アプリケーションを実行するには、jarファイルをスパークコンソールに送信する必要があります。
Sparkに送信する
Kafka Producer CLI(前の章で説明)を起動し、「 my-first-topic
」という新しいトピックを作成し、以下に示すサンプルメッセージを提供します。
次のコマンドを実行して、アプリケーションをスパークコンソールに送信します。
このアプリケーションのサンプル出力を以下に示します。