优化阅读格式

This commit is contained in:
heibaiying
2019-07-31 17:18:07 +08:00
parent ceb868fe13
commit ca7c99802b
91 changed files with 4059 additions and 4058 deletions

View File

@ -11,11 +11,11 @@
### 1.1 概念
Hive中的表对应为HDFS上的指定目录在查询数据时候默认会对全表进行扫描这样时间和性能的消耗都非常大。
Hive 中的表对应为 HDFS 上的指定目录,在查询数据时候,默认会对全表进行扫描,这样时间和性能的消耗都非常大。
**分区为HDFS上表目录的子目录**,数据按照分区存储在子目录中。如果查询的`where`字句的中包含分区条件,则直接从该分区去查找,而不是扫描整个表目录,合理的分区设计可以极大提高查询速度和性能。
**分区为 HDFS 上表目录的子目录**,数据按照分区存储在子目录中。如果查询的 `where` 字句的中包含分区条件,则直接从该分区去查找,而不是扫描整个表目录,合理的分区设计可以极大提高查询速度和性能。
>这里说明一下分区表并Hive独有的概念实际上这个概念非常常见。比如在我们常用的Oracle数据库中当表中的数据量不断增大查询数据的速度就会下降这时也可以对表进行分区。表进行分区后逻辑上表仍然是一张完整的表只是将表中的数据存放到多个表空间物理文件上这样查询数据时就不必要每次都扫描整张表从而提升查询性能。
>这里说明一下分区表并 Hive 独有的概念,实际上这个概念非常常见。比如在我们常用的 Oracle 数据库中,当表中的数据量不断增大,查询数据的速度就会下降,这时也可以对表进行分区。表进行分区后,逻辑上表仍然是一张完整的表,只是将表中的数据存放到多个表空间(物理文件上),这样查询数据时,就不必要每次都扫描整张表,从而提升查询性能。
### 1.2 使用场景
@ -23,7 +23,7 @@ Hive中的表对应为HDFS上的指定目录在查询数据时候默认会
### 1.3 创建分区表
在Hive中可以使用`PARTITIONED BY`子句创建分区表。表可以包含一个或多个分区列,程序会为分区列中的每个不同值组合创建单独的数据目录。下面的我们创建一张雇员表作为测试:
Hive 中可以使用 `PARTITIONED BY` 子句创建分区表。表可以包含一个或多个分区列,程序会为分区列中的每个不同值组合创建单独的数据目录。下面的我们创建一张雇员表作为测试:
```shell
CREATE EXTERNAL TABLE emp_partition(
@ -53,13 +53,13 @@ LOAD DATA LOCAL INPATH "/usr/file/emp30.txt" OVERWRITE INTO TABLE emp_partition
### 1.5 查看分区目录
这时候我们直接查看表目录,可以看到表目录下存在两个子目录,分别是`deptno=20``deptno=30`,这就是分区目录,分区目录下才是我们加载的数据文件。
这时候我们直接查看表目录,可以看到表目录下存在两个子目录,分别是 `deptno=20``deptno=30`,这就是分区目录,分区目录下才是我们加载的数据文件。
```shell
# hadoop fs -ls hdfs://hadoop001:8020/hive/emp_partition/
```
这时候当你的查询语句的`where`包含`deptno=20`,则就去对应的分区目录下进行查找,而不用扫描全表。
这时候当你的查询语句的 `where` 包含 `deptno=20`,则就去对应的分区目录下进行查找,而不用扫描全表。
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-hadoop-partitation.png"/> </div>
@ -69,15 +69,15 @@ LOAD DATA LOCAL INPATH "/usr/file/emp30.txt" OVERWRITE INTO TABLE emp_partition
### 1.1 简介
分区提供了一个隔离数据和优化查询的可行方案但是并非所有的数据集都可以形成合理的分区分区的数量也不是越多越好过多的分区条件可能会导致很多分区上没有数据。同时Hive会限制动态分区可以创建的最大分区数用来避免过多分区文件对文件系统产生负担。鉴于以上原因Hive还提供了一种更加细粒度的数据拆分方案分桶表(bucket Table)。
分区提供了一个隔离数据和优化查询的可行方案,但是并非所有的数据集都可以形成合理的分区,分区的数量也不是越多越好,过多的分区条件可能会导致很多分区上没有数据。同时 Hive 会限制动态分区可以创建的最大分区数用来避免过多分区文件对文件系统产生负担。鉴于以上原因Hive 还提供了一种更加细粒度的数据拆分方案:分桶表 (bucket Table)。
分桶表会将指定列的值进行哈希散列并对bucket桶数量取余然后存储到对应的bucket中。
分桶表会将指定列的值进行哈希散列,并对 bucket桶数量取余然后存储到对应的 bucket中。
### 1.2 理解分桶表
单从概念上理解分桶表可能会比较晦涩其实和分区一样分桶这个概念同样不是Hive独有的对于Java开发人员而言这可能是一个每天都会用到的概念因为Hive中的分桶概念和Java数据结构中的HashMap的分桶概念是一致的。
单从概念上理解分桶表可能会比较晦涩,其实和分区一样,分桶这个概念同样不是 Hive 独有的,对于 Java 开发人员而言,这可能是一个每天都会用到的概念,因为 Hive 中的分桶概念和 Java 数据结构中的 HashMap 的分桶概念是一致的。
当调用HashMapput()方法存储数据时程序会先对key值调用hashCode()方法计算出hashcode然后对数组长度取模计算出index最后将数据存储在数组index位置的链表上链表达到一定阈值后会转换为红黑树(JDK1.8+)。下图为HashMap的数据结构图
当调用 HashMapput() 方法存储数据时,程序会先对 key 值调用 hashCode() 方法计算出 hashcode然后对数组长度取模计算出 index最后将数据存储在数组 index 位置的链表上,链表达到一定阈值后会转换为红黑树 (JDK1.8+)。下图为 HashMap 的数据结构图:
<div align="center"> <img width="600px" src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/HashMap-HashTable.png"/> </div>
@ -85,7 +85,7 @@ LOAD DATA LOCAL INPATH "/usr/file/emp30.txt" OVERWRITE INTO TABLE emp_partition
### 1.3 创建分桶表
在Hive中我们可以通过`CLUSTERED BY`指定分桶列,并通过`SORTED BY`指定桶中数据的排序参考列。下面为分桶表建表语句示例:
Hive 中,我们可以通过 `CLUSTERED BY` 指定分桶列,并通过 `SORTED BY` 指定桶中数据的排序参考列。下面为分桶表建表语句示例:
```sql
CREATE EXTERNAL TABLE emp_bucket(
@ -97,37 +97,37 @@ LOAD DATA LOCAL INPATH "/usr/file/emp30.txt" OVERWRITE INTO TABLE emp_partition
sal DECIMAL(7,2),
comm DECIMAL(7,2),
deptno INT)
CLUSTERED BY(empno) SORTED BY(empno ASC) INTO 4 BUCKETS --按照员工编号散列到四个bucket中
CLUSTERED BY(empno) SORTED BY(empno ASC) INTO 4 BUCKETS --按照员工编号散列到四个 bucket
ROW FORMAT DELIMITED FIELDS TERMINATED BY "\t"
LOCATION '/hive/emp_bucket';
```
### 1.4 加载数据到分桶表
这里直接使用`Load`语句向分桶表加载数据,数据时可以加载成功的,但是数据并不会分桶。
这里直接使用 `Load` 语句向分桶表加载数据,数据时可以加载成功的,但是数据并不会分桶。
这是由于分桶的实质是对指定字段做了hash散列然后存放到对应文件中这意味着向分桶表中插入数据是必然要通过MapReduce且Reducer的数量必须等于分桶的数量。由于以上原因分桶表的数据通常只能使用CTAS(CREATE TABLE AS SELECT)方式插入因为CTAS操作会触发MapReduce。加载数据步骤如下
这是由于分桶的实质是对指定字段做了 hash 散列然后存放到对应文件中,这意味着向分桶表中插入数据是必然要通过 MapReduce Reducer 的数量必须等于分桶的数量。由于以上原因,分桶表的数据通常只能使用 CTAS(CREATE TABLE AS SELECT) 方式插入,因为 CTAS 操作会触发 MapReduce。加载数据步骤如下
#### 1. 设置强制分桶
```sql
set hive.enforce.bucketing = true; --Hive 2.x不需要这一步
set hive.enforce.bucketing = true; --Hive 2.x 不需要这一步
```
在Hive 0.x and 1.x版本必须使用设置`hive.enforce.bucketing = true`表示强制分桶允许程序根据表结构自动选择正确数量的Reducercluster by column来进行分桶。
Hive 0.x and 1.x 版本,必须使用设置 `hive.enforce.bucketing = true`,表示强制分桶,允许程序根据表结构自动选择正确数量的 Reducercluster by column 来进行分桶。
#### 2. CTAS导入数据
```sql
INSERT INTO TABLE emp_bucket SELECT * FROM emp; --这里的emp表就是一张普通的雇员表
INSERT INTO TABLE emp_bucket SELECT * FROM emp; --这里的 emp 表就是一张普通的雇员表
```
可以从执行日志看到CTAS触发MapReduce操作且Reducer数量和建表时候指定bucket数量一致
可以从执行日志看到 CTAS 触发 MapReduce 操作,且 Reducer 数量和建表时候指定 bucket 数量一致:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-hadoop-mapreducer.png"/> </div>
### 1.5 查看分桶文件
bucket(桶)本质上就是表目录下的具体文件:
bucket(桶) 本质上就是表目录下的具体文件:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-hadoop-bucket.png"/> </div>
@ -135,7 +135,7 @@ bucket(桶)本质上就是表目录下的具体文件:
## 三、分区表和分桶表结合使用
分区表和分桶表的本质都是将数据按照不同粒度进行拆分从而使得在查询时候不必扫描全表只需要扫描对应的分区或分桶从而提升查询效率。两者可以结合起来使用从而保证表数据在不同粒度上都能得到合理的拆分。下面是Hive官方给出的示例
分区表和分桶表的本质都是将数据按照不同粒度进行拆分,从而使得在查询时候不必扫描全表,只需要扫描对应的分区或分桶,从而提升查询效率。两者可以结合起来使用,从而保证表数据在不同粒度上都能得到合理的拆分。下面是 Hive 官方给出的示例:
```sql
CREATE TABLE page_view_bucketed(