Es-hive-hive-installation

提供:Dev Guides
移動先:案内検索

ハイブ-インスタラシオン

Todos Hadoopサブプロジェクトcomo Hive、el cerdo、HBaseおよび互換性のあるcon el sistema operativo Linux。 lo tantoにより、Linux con saborをインストールしました。 Hiveinstalaciónによる息子の息子の損失:

手順1:ジャワのインストール

Java debeは、Hiveのインストールとインストールを完了します。 Javaユーティリティーのインストールの検証:

$ java –version

Si Javaがインストールされており、システムがインストールされていません。

java version "1.7.0_71"
Java(TM) SE Runtime Environment (build 1.7.0_71-b13)
Java HotSpot(TM) Client VM (build 25.0-b02, mixed mode)

継続的、継続的、継続的、継続的なパラインスタラーJavaのインストールが必要です。

Javaのインストール

手順I:

ダウンロードJava(JDK <最新バージョン>-X64.tar.gz)visitando el siguiente enlace http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260lhttp://www。 oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260l。

続き、jdk-7u71-linux-x64.tar.gzをダウンロードしてください。

手順II:

一般的には、ジャカルタおよびジャカルタのジャカルタにあります。 特別なjdk-7u71-linux-x64.gzを追加しました。

$ cd Downloads/
$ ls
jdk-7u71-linux-x64.gz
$ tar zxf jdk-7u71-linux-x64.gz
$ ls
jdk1.7.0_71 jdk-7u71-linux-x64.gz

手順III:

例外的なJavaは、「/usr/local/」という一般的な質問に対応します。 Abrir root、y escriba los siguientes comandos。

$ su
password:
# mv jdk1.7.0_71/usr/local/
# exit

手順IV:

JAVA_HOME変数の構成、パラメータの設定、およびアーカイブ〜/.bashrcの共通コマンド

export JAVA_HOME=/usr/local/jdk1.7.0_71
export PATH=PATH:$JAVA_HOME/bin

Javaのインストールとインストールの前の手順については、Javaのバージョンを使用してください。

手順2:Comprobar HadoopInstalación

Hadoop debe estar instalado en el sistema antes de instalar Hive。 Hadoopを検証するためのnosotrosの検証コマンドの使用例:

$ hadoop version

Si Hadoopがインストールされており、システムがインストールされています。

Hadoop 2.4.1 Subversion https://svn.apache.org/repos/asf/hadoop/common -r 1529768
Compiled by hortonmu on 2013-10-07T06:28Z
Compiled with protoc 2.5.0
From source with checksum 79e53ce7994d1628b240f09af91e1af4

Si Hadoop noestáinstalada en su sistema、continúecon los siguientes pasos:

デスカルガー・ハドープ

Apache Software Foundationの追加のHadoop 2.4.1コマンドが使用されています。

$ su
password:
# cd/usr/local
# wget http://apache.claz.org/hadoop/common/hadoop-2.4.1/
hadoop-2.4.1.tar.gz
# tar xzf hadoop-2.4.1.tar.gz
# mv hadoop-2.4.1/*to hadoop/
# exit

インストールされたHadoop en Pseudo modoディストリビューション

Loss siguientes pasos se usan para instalar Hadoop 2.4.1 en pseudo modo distribuido。

手順I:Configuraciónde Hadoop

Puede establecer las variables de entorno Hadoop anexar los siguientes comandos para* 〜/.bashrc *。

export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export
PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

Ahora se aplican todos los cambios en el sistema actual。

$ source ~/.bashrc

手順II:HadoopConfiguración

構成されたハードウェアの設定を行うための、使用されたプエンドコントララーの「$ HADOOP_HOME/etc/hadoop」。 Hadoopのインフラストラクチャの設定を変更する必要があります。

$ cd $HADOOP_HOME/etc/hadoop

HadoopのJavaの制御プログラム、再起動可能なJavaの変数、 hadoop-env.sh のアーカイブ、 JAVA_HOME の中央値、およびs

export JAVA_HOME=/usr/local/jdk1.7.0_71

Hadoopの構成を変更するための継続的なリストです。

*Core-site.xml*

El * core-site.xml * contieneinformacióncomo elnúmerode puerto que se usa para Hadoop ejemplo、memoria asignada para el sistema de archivos、límitede memoria para almacenar los datos、y eltamañode lectura/escritura。

Abrir el core-site.xmlおよびその他の構成要素の構成要素<configuration> y </configuration>の属性。

<configuration>

   <property>
      <name>fs.default.name</name>
      <value>hdfs://localhost:9000</value>
   </property>

</configuration>
*Hdfs sitio.xml*

la hdfs sitio.xml contieneinformacióncomo el valor de los datos de repplica、el namenode ruta、y la datanode camino de los sistemas de archivosロケール。 Esto significa que el lugar donde se desea almacenar el Hadoop infra。

Supongamos los siguientes datos。

dfs.replication (data replication value) = 1

(In the following path/hadoop/is the user name.
hadoopinfra/hdfs/namenode is the directory created by hdfs file system.)

namenode path =//home/hadoop/hadoopinfra/hdfs/namenode

(hadoopinfra/hdfs/datanode is the directory created by hdfs file system.)
datanode path =//home/hadoop/hadoopinfra/hdfs/datanode

アーカイブ<br> <configuración>、</configuration>を含むすべてのプロパティをアーカイブします。

<configuration>

   <property>
      <name>dfs.replication</name>
      <value>1</value>
   </property>
   <property>
      <name>dfs.name.dir</name>
      <value>file:///home/hadoop/hadoopinfra/hdfs/namenode </value>
   </property>
   <property>
      <name>dfs.data.dir</name>
      <value>file:///home/hadoop/hadoopinfra/hdfs/datanode </value >
   </property>

</configuration>
  • 注:*事前に、プロスペダッドの息子の息子の定義と、Hadoopのインフラストラクチャの機能を提供します。
*yarn-site.xml*

構成ファイルの設定Yarn en Hadoop。 Abra el yarn-site.xmlと<configuración>、</configuration>をアーカイブするためのプロパティを設定します。

<configuration>

   <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
   </property>

</configuration>
  • マップされたsitio.xml *

MapReduceフレームワークの特定の用途に使用することができます。 事前決定済み、Hadoop contiene una plantilla de Mapred sitio.xml En入門書、es necesario copiar el fichero de mapred-sitio、xml.template de mapred sitio.xml con el siguiente comando。

$ cp mapred-site.xml.template mapred-site.xml

Abrir* mapred-site.xml * yは、すべての<configuración>および</configuration>のすべての構成要素のプロパティです。

<configuration>

   <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
   </property>

</configuration>

HadoopInstalaciónVerificación

Hadoopのインストールと検証に使用できます。

入門編:ノドブレ・インスタラシオン

名前ノードの設定は、コマンドラインの「hdfs namenode -format」で行います。

$ cd ~
$ hdfs namenode -format

結果は、エスペラードとシギエンテです。

10/24/14 21:30:55 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = localhost/192.168.1.11
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 2.4.1
...
...
10/24/14 21:30:56 INFO common.Storage: Storage directory
/home/hadoop/hadoopinfra/hdfs/namenode has been successfully formatted.
10/24/14 21:30:56 INFO namenode.NNStorageRetentionManager: Going to
retain 1 images with txid >= 0
10/24/14 21:30:56 INFO util.ExitUtil: Exiting with status 0
10/24/14 21:30:56 INFO namenode.NameNode: SHUTDOWN_MSG:
/*********************************************************** *
SHUTDOWN_MSG: Shutting down NameNode at localhost/192.168.1.11
* ***********************************************************/

手順II:VerificaciónHadoop dfs

エル・シギエンテ・コマンド・セ・ユーティリザ・パラ・イニシア・スレ。 アル・エジェキュータル・エスト・コマンド、アーティボ・デ・アシボ・ラ・アドゥーボ・システマ・デ・アーキヴォス。

$ start-dfs.sh

エルリザルドエスペラードエスラシギエンテ:

10/24/14 21:37:56
Starting namenodes on [localhost]
localhost: starting namenode, logging to/home/hadoop/hadoop-2.4.1/logs/hadoop-hadoop-namenode-localhost.out
localhost: starting datanode, logging to/home/hadoop/hadoop-2.4.1/logs/hadoop-hadoop-datanode-localhost.out
Starting secondary namenodes [0.0.0.0]

Etapa III:VerificaciónYarnスクリプト

エルヤーンスクリプトを使用してコマンドを実行します。 毛糸の悪魔のようなものです。

$ start-yarn.sh

エルリザルドエスペラードエスラシギエンテ:

starting yarn daemons
starting resourcemanager, logging to/home/hadoop/hadoop-2.4.1/logs/yarn-hadoop-resourcemanager-localhost.out
localhost: starting nodemanager, logging to/home/hadoop/hadoop-2.4.1/logs/yarn-hadoop-nodemanager-localhost.out

Etapa IV:Hadoop en el navegadorへのアクセス

Elnúmerode puerto predeterminado para acceder a Hadoop es 50070。 Hadioop en su navegadorのサービスを提供します。

http://localhost:50070/

Hadoopブラウザ

パソV:クラソスのソリチュードの検証

エル・ヌメロ・デ・プエルト・プレデタミナード・パラ・アクセサー・ア・トダス・ラス・アプリカシオン・デ・クラスター・エス8088 訪問者は、訪問者のためのサービスを提供します。

http://localhost:8088/

todas las aplicaciones

手順3:デスカルガルスバルボル

0.14.0 en esteチュートリアルを使用してください。 http://apache.petsads.us/hive/hive-0.14.0/。 Supongamos que se詳細はダウンロードをご覧ください。 詳細については、スバルアーカイブアーカイブ「apache-Hive-0.14.0 -bin.tar.gz」のチュートリアルを参照してください。 エル・シギエンテ・コマンド・セ・ユーティリザ・パラ・ベリフィカル・ラ・デスカルガ:

$ cd Downloads
$ ls

デスカルガ・イグトーザ、ユステッド・ポドラ・ラ・ラ・シギエンテ・レスプエスタ:

apache-hive-0.14.0-bin.tar.gz

手順4:インスタラーハイブ

Los siguientes pasos son necesarios para instalar Hives en el sistema。 Supongamos que el archivo Hive es descargado en el directorio/downloads。

ExtracciónyverificaciónArchivo Hive

エル・シギエンテ・コマンド・ユーティリティ・パラ・ベリフィカル・ラ・デスカルガとエクストラ・ラ・ハイブ

$ tar zxvf apache-hive-0.14.0-bin.tar.gz
$ ls

デスカルガ・イグトーザ、ユステッド・ポドラ・ラ・ラ・シギエンテ・レスプエスタ:

apache-hive-0.14.0-bin apache-hive-0.14.0-bin.tar.gz

Copia de archivos en/usr/local/Hive directorio

Tenemos que copiar los archivos desde el super usuario "su-"。 Los siguientes comandos se utilizan para copiar los archivos desde el directorioextraíal al/usr/local/Hive "ディレクトリ。

$ su -
passwd:

# cd/home/user/Download
# mv apache-hive-0.14.0-bin/usr/local/hive
# exit

メディオアンビエンテデハイブ

アンビエント、セカンドメディオアンビエントの設定、アーカイブ、およびアーカイブ* /。bashrc

export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
export CLASSPATH=$CLASSPATH:/usr/local/Hadoop/lib/*:.
export CLASSPATH=$CLASSPATH:/usr/local/hive/lib/*:.

エル・シギエンテのコマンドとユーティリティの使用〜/.bashrc

$ source ~/.bashrc

手順5:ConfiguraciónHive

Hive con Hadoopのパラメーター、es necesario que edite la Hive-env.sh 、que se coloca en un * $ HIVE_HOME/ directorio conf。 Losive siguientes comandosredireccióna Hive config * carta y copie el archivo de plantilla:

$ cd $HIVE_HOME/conf
$ cp hive-env.sh.template hive-env.sh

編集者 Hive-env.sh archivoañadiendola siguientelínea:

export HADOOP_HOME=/usr/local/hadoop

修正を完了してください。 Metastoreの構成に基づいた外部サービスの提供。 Usamos Apache Derby base de datos。

手順6:Apache Derbyのインストール

Apache Derbyの継続的なダウンロードとインストールの継続的な兆候は次のとおりです。

ダウンロードアパッチダービー

エル・シギエンテのコマンドとユーティリティのアパッチ・ダービー。 必要に応じてダウンロードしてください。

$ cd ~
$ wget http://archive.apache.org/dist/db/derby/db-derby-10.4.2.0/db-derby-10.4.2.0-bin.tar.gz

エル・シギエンテ・コマンド・セ・ユーティリザ・パラ・ベリフィカル・ラ・デスカルガ:

$ ls

デスカルガ・イグトーザ、ユステッド・ポドラ・ラ・ラ・シギエンテ・レスプエスタ:

db-derby-10.4.2.0-bin.tar.gz

Extray y verificar Derbyアーカイブ

ダービーアーカイブの特別な方法で使用することのできるコマンド:

$ tar zxvf db-derby-10.4.2.0-bin.tar.gz
$ ls

デスカルガ・イグトーザ、ユステッド・ポドラ・ラ・ラ・シギエンテ・レスプエスタ:

db-derby-10.4.2.0-bin db-derby-10.4.2.0-bin.tar.gz

Copiar los archivos en/usr/local/derby directorio

Tenemos que copiar de los super usuario "su-"。 Los siguientes comandos se utilizan para copiar los archivos desde el directorioextraídoal/usr/local/derby directorio:

$ su -
passwd:
# cd/home/user
# mv db-derby-10.4.2.0-bin/usr/local/derby
# exit

Medio ambiente de Derby

Puerde configurar el Derby medio ambienteañadiendolas siguienteslíneasen el archivo *〜/.bashrc *:

export DERBY_HOME=/usr/local/derby
export PATH=$PATH:$DERBY_HOME/bin
Apache Hive
18
export CLASSPATH=$CLASSPATH:$DERBY_HOME/lib/derby.jar:$DERBY_HOME/lib/derbytools.jar

エル・シギエンテのコマンドとユーティリティの使用*〜/.bashrc *:

$ source ~/.bashrc

Cree un directorio para almacenar Metastore

$ DERBY_HOMEメタストアディレクターオブアルマセナーロスダトス。

$ mkdir $DERBY_HOME/data

ダービーのインストールとインストールの完了。

手順7:ハイブメタストアの構成

メタストアの構成は、Hiveの基本的なデータベースの詳細を特定します。 Esto se puede hacer mediante lamodificaciónde hive-site.xml file、el cual se encuentra en el $ HIVE_HOME/directorio conf。 プライマールーガー、コピエルエルアーキボデプランティリャメディカルエルシギエンテコマンド:

$ cd $HIVE_HOME/conf
$ cp hive-default.xml.template hive-site.xml

Editar * hive-site.xml *yañadirlas siguienteslíneasentre <configuration> y </configuration>のエチケット:

<property>
   <name>javax.jdo.option.ConnectionURL</name>
   <value>jdbc:derby://localhost:1527/metastore_db;create=true </value>
   <description>JDBC connect string for a JDBC metastore </description>
</property>

クリーナーアーカイブデノミナドjpox.properties yañadirlas siguienteslíneasenél:

javax.jdo.PersistenceManagerFactoryClass =

org.jpox.PersistenceManagerFactoryImpl
org.jpox.autoCreateSchema = false
org.jpox.validateTables = false
org.jpox.validateColumns = false
org.jpox.validateConstraints = false
org.jpox.storeManagerType = rdbms
org.jpox.autoCreateSchema = true
org.jpox.autoStartMechanismMode = checked
org.jpox.transactionIsolation = read_committed
javax.jdo.option.DetachAllOnCommit = true
javax.jdo.option.NontransactionalRead = true
javax.jdo.option.ConnectionDriverName = org.apache.derby.jdbc.ClientDriver
javax.jdo.option.ConnectionURL = jdbc:derby://hadoop1:1527/metastore_db;create = true
javax.jdo.option.ConnectionUserName = APP
javax.jdo.option.ConnectionPassword = mine

手順8:Comprobar HiveInstalación

ハイブの前に、HD FSのカーペットのようにハイプされます。* /user/Hive/ * carpeta dealmacénを使用してください。 Es necesario configurer permisos de escritura para estas cartasreciéncreadas como se muestra acontinuación:

chmod g+w

Ahora HDFS en Hive antes de laverificación。 los siguientesコマンドを使用します。

$ $HADOOP_HOME/bin/hadoop fs -mkdir/tmp
$ $HADOOP_HOME/bin/hadoop fs -mkdir/user/hive/warehouse
$ $HADOOP_HOME/bin/hadoop fs -chmod g+w/tmp
$ $HADOOP_HOME/bin/hadoop fs -chmod g+w/user/hive/warehouse

Hiveinstalaciónの検証用コマンドを使用したコマンド:

$ cd $HIVE_HOME
$ bin/hive

ハイブエルエクシトデラハイバ

Logging initialized using configuration in jar:file:/home/hadoop/hive-0.9.0/lib/hive-common-0.9.0.jar!/hive-log4j.properties
Hive history file=/tmp/hadoop/hive_job_log_hadoop_201312121621_1494929084.txt
………………….
hive>

El ejemplo siguiente se ejecuta el comando para mostrar todas las tablas:

hive> show tables;
OK
Time taken: 2.798 seconds
hive>