优化阅读格式

This commit is contained in:
heibaiying
2019-07-31 17:18:07 +08:00
parent ceb868fe13
commit ca7c99802b
91 changed files with 4059 additions and 4058 deletions

View File

@ -18,7 +18,7 @@
### 1.1 下载并解压
下载所需版本的Hive这里我下载版本为`cdh5.15.2`。下载地址http://archive.cloudera.com/cdh5/cdh/5/
下载所需版本的 Hive这里我下载版本为 `cdh5.15.2`。下载地址http://archive.cloudera.com/cdh5/cdh/5/
```shell
# 下载后进行解压
@ -48,13 +48,13 @@ export PATH=$HIVE_HOME/bin:$PATH
**1. hive-env.sh**
进入安装目录下的`conf/`目录拷贝Hive的环境配置模板`flume-env.sh.template`
进入安装目录下的 `conf/` 目录,拷贝 Hive 的环境配置模板 `flume-env.sh.template`
```shell
cp hive-env.sh.template hive-env.sh
```
修改`hive-env.sh`指定Hadoop的安装路径
修改 `hive-env.sh`,指定 Hadoop 的安装路径:
```shell
HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
@ -62,7 +62,7 @@ HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
**2. hive-site.xml**
新建hive-site.xml 文件内容如下主要是配置存放元数据的MySQL的地址、驱动、用户名和密码等信息
新建 hive-site.xml 文件,内容如下,主要是配置存放元数据的 MySQL 的地址、驱动、用户名和密码等信息:
```xml
<?xml version="1.0"?>
@ -96,7 +96,7 @@ HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
### 1.4 拷贝数据库驱动
将MySQL驱动包拷贝到Hive安装目录的`lib`目录下, MySQL驱动的下载地址为https://dev.mysql.com/downloads/connector/j/ , 在本仓库的[resources](https://github.com/heibaiying/BigData-Notes/tree/master/resources)目录下我也上传了一份,有需要的可以自行下载。
MySQL 驱动包拷贝到 Hive 安装目录的 `lib` 目录下, MySQL 驱动的下载地址为https://dev.mysql.com/downloads/connector/j/ , 在本仓库的[resources](https://github.com/heibaiying/BigData-Notes/tree/master/resources) 目录下我也上传了一份,有需要的可以自行下载。
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-mysql.png"/> </div>
@ -104,20 +104,20 @@ HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
### 1.5 初始化元数据库
+ 当使用的 hive 是1.x版本时可以不进行初始化操作Hive会在第一次启动的时候会自动进行初始化但不会生成所有的元数据信息表只会初始化必要的一部分在之后的使用中用到其余表时会自动创建
+ 当使用的 hive 是 1.x 版本时可以不进行初始化操作Hive 会在第一次启动的时候会自动进行初始化,但不会生成所有的元数据信息表,只会初始化必要的一部分,在之后的使用中用到其余表时会自动创建;
+ 当使用的 hive 是2.x版本时必须手动初始化元数据库。初始化命令
+ 当使用的 hive 是 2.x 版本时,必须手动初始化元数据库。初始化命令:
```shell
# schematool 命令在安装目录的bin目录下由于上面已经配置过环境变量在任意位置执行即可
# schematool 命令在安装目录的 bin 目录下,由于上面已经配置过环境变量,在任意位置执行即可
schematool -dbType mysql -initSchema
```
这里我使用的是CDH`hive-1.1.0-cdh5.15.2.tar.gz`,对应`Hive 1.1.0` 版本,可以跳过这一步。
这里我使用的是 CDH`hive-1.1.0-cdh5.15.2.tar.gz`,对应 `Hive 1.1.0` 版本,可以跳过这一步。
### 1.6 启动
由于已经将Hivebin目录配置到环境变量直接使用以下命令启动成功进入交互式命令行后执行`show databases`命令,无异常则代表搭建成功。
由于已经将 Hivebin 目录配置到环境变量,直接使用以下命令启动,成功进入交互式命令行后执行 `show databases` 命令,无异常则代表搭建成功。
```shell
# hive
@ -125,7 +125,7 @@ HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-install-2.png"/> </div>
在Mysql中也能看到Hive创建的库和存放元数据信息的表
Mysql 中也能看到 Hive 创建的库和存放元数据信息的表
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-mysql-tables.png"/> </div>
@ -133,15 +133,15 @@ HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
## 二、HiveServer2/beeline
Hive内置了HiveServerHiveServer2服务两者都允许客户端使用多种编程语言进行连接但是HiveServer不能处理多个客户端的并发请求因此产生了HiveServer2。HiveServer2HS2允许远程客户端可以使用各种编程语言向Hive提交请求并检索结果支持多客户端并发访问和身份验证。HS2是由多个服务组成的单个进程其包括基于ThriftHive服务TCPHTTP和用于Web UIJetty Web服务。
Hive 内置了 HiveServerHiveServer2 服务,两者都允许客户端使用多种编程语言进行连接,但是 HiveServer 不能处理多个客户端的并发请求,因此产生了 HiveServer2。HiveServer2HS2允许远程客户端可以使用各种编程语言向 Hive 提交请求并检索结果支持多客户端并发访问和身份验证。HS2 是由多个服务组成的单个进程,其包括基于 ThriftHive 服务TCPHTTP和用于 Web UIJetty Web 服务。
HiveServer2拥有自己的CLI工具——Beeline。Beeline是一个基于SQLLineJDBC客户端。由于目前HiveServer2Hive开发维护的重点所以官方更加推荐使用Beeline而不是Hive CLI。以下主要讲解Beeline的配置方式。
HiveServer2 拥有自己的 CLI 工具——Beeline。Beeline 是一个基于 SQLLineJDBC 客户端。由于目前 HiveServer2Hive 开发维护的重点,所以官方更加推荐使用 Beeline 而不是 Hive CLI。以下主要讲解 Beeline 的配置方式。
### 2.1 修改Hadoop配置
修改 hadoop 集群的 core-site.xml 配置文件增加如下配置指定hadooproot用户可以代理本机上所有的用户。
修改 hadoop 集群的 core-site.xml 配置文件,增加如下配置,指定 hadooproot 用户可以代理本机上所有的用户。
```xml
<property>
@ -154,9 +154,9 @@ Hive内置了HiveServer和HiveServer2服务两者都允许客户端使用多
</property>
```
之所以要配置这一步是因为hadoop 2.0以后引入了安全伪装机制使得hadoop不允许上层系统如hive直接将实际用户传递到hadoop层而应该将实际用户传递给一个超级代理由该代理在hadoop上执行操作以避免任意客户端随意操作hadoop。如果不配置这一步在之后的连接中可能会抛出`AuthorizationException`异常。
之所以要配置这一步,是因为 hadoop 2.0 以后引入了安全伪装机制,使得 hadoop 不允许上层系统(如 hive直接将实际用户传递到 hadoop 层,而应该将实际用户传递给一个超级代理,由该代理在 hadoop 上执行操作,以避免任意客户端随意操作 hadoop。如果不配置这一步在之后的连接中可能会抛出 `AuthorizationException` 异常。
>关于Hadoop的用户代理机制可以参考[hadoop的用户代理机制](https://blog.csdn.net/u012948976/article/details/49904675#官方文档解读) 或 [Superusers Acting On Behalf Of Other Users](http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/Superusers.html)
>关于 Hadoop 的用户代理机制,可以参考:[hadoop 的用户代理机制](https://blog.csdn.net/u012948976/article/details/49904675#官方文档解读) 或 [Superusers Acting On Behalf Of Other Users](http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/Superusers.html)
@ -172,7 +172,7 @@ Hive内置了HiveServer和HiveServer2服务两者都允许客户端使用多
### 2.3 使用beeline
可以使用以下命令进入beeline交互式命令行出现`Connected`则代表连接成功。
可以使用以下命令进入 beeline 交互式命令行,出现 `Connected` 则代表连接成功。
```shell
# beeline -u jdbc:hive2://hadoop001:10000 -n root