Hbase容灾与备份

This commit is contained in:
罗祥 2019-04-07 12:06:32 +08:00
parent 2ba8ea5db7
commit 2d31205175
8 changed files with 767 additions and 510 deletions

View File

@ -1,4 +1,23 @@
# Azkaban Flow 1.0 的使用
<nav>
<a href="#一简介">一、简介</a><br/>
<a href="#二基本任务调度">二、基本任务调度</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#21-新建项目">2.1 新建项目</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#22-任务配置">2.2 任务配置</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#23-打包上传">2.3 打包上传</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#24-执行任务">2.4 执行任务</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#25-执行结果">2.5 执行结果</a><br/>
<a href="#三多任务调度">三、多任务调度</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#31-依赖配置">3.1 依赖配置</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#32-压缩上传">3.2 压缩上传</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#33-依赖关系">3.3 依赖关系</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#34-执行结果">3.4 执行结果</a><br/>
<a href="#四调度HDFS作业">四、调度HDFS作业</a><br/>
<a href="#五调度MR作业">五、调度MR作业</a><br/>
<a href="#六调度Hive作业">六、调度Hive作业</a><br/>
<a href="#七在线修改作业配置">七、在线修改作业配置</a><br/>
<a href="#<div-align="center">-<img--src="httpsgithubcomheibaiyingBigData-Notesblobmasterpicturesazkaban-click-editpng">-<div>八可能出现的问题"><div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-click-edit.png"/> </div>八、可能出现的问题</a><br/>
</nav>
## 一、简介
@ -15,7 +34,7 @@ Azkaban提供了人性化的WEB UI界面使得我们可以通过界面上传
在Azkaban主界面可以创建对应的项目
![azkaban-create-project](D:\BigData-Notes\pictures\azkaban-create-project.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-create-project.png"/> </div>
### 2.2 任务配置
@ -31,29 +50,29 @@ command=echo 'Hello Azkaban!'
`Hello-Azkaban.job `打包为`zip`压缩文件
![azkaban-zip](D:\BigData-Notes\pictures\azkaban-zip.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-zip.png"/> </div>
通过Web UI 界面上传
![azkaban-upload](D:\BigData-Notes\pictures\azkaban-upload.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-upload.png"/> </div>
上传成功后可以看到对应的Flows
![azkaban-flows](D:\BigData-Notes\pictures\azkaban-flows.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-flows.png"/> </div>
### 2.4 执行任务
点击页面上的`Execute Flow`执行任务
![azkaban-execute](D:\BigData-Notes\pictures\azkaban-execute.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-execute.png"/> </div>
### 2.5 执行结果
点击`detail`可以查看到任务的执行日志
![azkaban-successed](D:\BigData-Notes\pictures\azkaban-successed.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-successed.png"/> </div>
![azkaban-log](D:\BigData-Notes\pictures\azkaban-log.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-log.png"/> </div>
## 三、多任务调度
@ -102,17 +121,17 @@ dependencies=Task-D
压缩后进行上传这里需要注意的是一个Project只能接收一个压缩包这里我还沿用上面的Project默认后面的压缩包会覆盖前面的压缩包
![azkaban-task-abcde-zip](D:\BigData-Notes\pictures\azkaban-task-abcde-zip.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-task-abcde-zip.png"/> </div>
### 3.3 依赖关系
多个任务存在依赖时默认采用最后一个任务的文件名作为Flow的名称其依赖关系可以在页面上得以直观的体现
![azkaban-dependencies](D:\BigData-Notes\pictures\azkaban-dependencies.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-dependencies.png"/> </div>
### 3.4 执行结
![azkaban-task-abcde](D:\BigData-Notes\pictures\azkaban-task-abcde.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-task-abcde.png"/> </div>
这里说明一下在Flow1.0的情况下是无法通过一个job文件完成多个任务的配置的但是Flow 2.0 就很好的解决了这个问题。
@ -127,7 +146,7 @@ command=/usr/app/hadoop-2.6.0-cdh5.15.2/bin/hadoop fs -ls /
执行结果:
![azkaban-hdfs](D:\BigData-Notes\pictures\azkaban-hdfs.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-hdfs.png"/> </div>
## 五、调度MR作业
@ -140,7 +159,7 @@ command=/usr/app/hadoop-2.6.0-cdh5.15.2/bin/hadoop jar /usr/app/hadoop-2.6.0-cdh
执行结果:
![azkaban-mr](D:\BigData-Notes\pictures\azkaban-mr.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-mr.png"/> </div>
## 六、调度Hive作业
@ -173,25 +192,25 @@ desc emp;
打包的时候将`job`文件与`sql`文件一并进行打包
![azkaban-hive](D:\BigData-Notes\pictures\azkaban-hive.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-hive.png"/> </div>
执行结果如下:
![azkaban-hive-result](D:\BigData-Notes\pictures\azkaban-hive-result.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-hive-result.png"/> </div>
## 七、在线修改作业配置
在测试的时候我们可能要频繁修改配置如果每次修改都要重新打包上传这是比较麻烦的所幸的是Azkaban是支持配置的在线修改的点击需要修改的Flow就可以进入详情页面
![azkaban-project-edit](D:\BigData-Notes\pictures\azkaban-project-edit.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-project-edit.png"/> </div>
在详情页面点击`Eidt`按钮可以进入编辑页面
![azkaban-edit](D:\BigData-Notes\pictures\azkaban-edit.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-edit.png"/> </div>
在编辑页面可以新增配置或者修改配置
## ![azkaban-click-edit](D:\BigData-Notes\pictures\azkaban-click-edit.png)八、可能出现的问题
## <div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-click-edit.png"/> </div>八、可能出现的问题
如果出现以下异常,多半是因为执行主机内存不足引起azkaban要求执行主机可用内存必须大于3G才能满足执行任务的条件
@ -199,7 +218,7 @@ desc emp;
Cannot request memory (Xms 0 kb, Xmx 0 kb) from system for job
```
![azkaban-memory](D:\BigData-Notes\pictures\azkaban-memory.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-memory.png"/> </div>
如果你的执行主机没办法增大内存,则可以通过配置`commonprivate.properties` 文件关闭内存检查,

View File

@ -1,4 +1,23 @@
# Azkaban Flow 2.0的使用
<nav>
<a href="#一Flow-20-简介">一、Flow 2.0 简介</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#11-Flow-20-的产生">1.1 Flow 2.0 的产生</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#12-基本结构">1.2 基本结构</a><br/>
<a href="#二YAML语法">二、YAML语法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#21-基本规则">2.1 基本规则</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#22-对象的写法">2.2 对象的写法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#23-map的写法">2.3 map的写法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#23-数组的写法">2.3 数组的写法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#25-单双引号">2.5 单双引号</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#26-特殊符号">2.6 特殊符号</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#27-配置引用">2.7 配置引用</a><br/>
<a href="#三简单任务调度">三、简单任务调度</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#31-任务配置">3.1 任务配置</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#32-打包上传">3.2 打包上传</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#33-执行结果">3.3 执行结果</a><br/>
<a href="#四多任务调度">四、多任务调度</a><br/>
<a href="#五内嵌流">五、内嵌流</a><br/>
</nav>
## 一、Flow 2.0 简介
@ -193,7 +212,7 @@ azkaban-flow-version: 2.0
### 3.2 打包上传
![azkaban-simple](D:\BigData-Notes\pictures\azkaban-simple.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-simple.png"/> </div>
@ -201,7 +220,7 @@ azkaban-flow-version: 2.0
由于在1.0 版本中已经介绍过web ui的使用这里就不再赘述对于1.0和2.0版本,只有配置的方式是不同的,其他上传执行的操作方式都是相同的。执行结果如下:
![azkaban-simle-result](D:\BigData-Notes\pictures\azkaban-simle-result.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-simle-result.png"/> </div>
## 四、多任务调度
@ -276,11 +295,11 @@ nodes:
内嵌流的DAG图如下
![azkaban-embeded-flow](D:\BigData-Notes\pictures\azkaban-embeded-flow.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-embeded-flow.png"/> </div>
执行情况如下:
![azkaban-embeded-success](D:\BigData-Notes\pictures\azkaban-embeded-success.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-embeded-success.png"/> </div>

View File

@ -29,6 +29,12 @@
## 一、基本命令
首先打开Hbase Shell
```shell
# habse shell
```
#### 1.1 获取帮助
```shell

View File

View File

@ -0,0 +1,197 @@
# Hbase容灾与备份
<nav>
<a href="#一前言">一、前言</a><br/>
<a href="#二CopyTable">二、CopyTable</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#21-简介">2.1 简介</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#22-命令格式">2.2 命令格式</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#23-常用命令">2.3 常用命令</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#24-更多参数">2.4 更多参数</a><br/>
<a href="#三ExportImport">三、Export/Import</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#31-简介">3.1 简介</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#32-命令格式">3.2 命令格式</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#33-常用命令">3.3 常用命令</a><br/>
<a href="#四Snapshot">四、Snapshot</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#41-简介">4.1 简介</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#42-配置">4.2 配置</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#43-常用命令">4.3 常用命令</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="#1-Take-a-Snapshot">1. Take a Snapshot</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="#2-Listing-Snapshots">2. Listing Snapshots</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="#3-Deleting-Snapshots">3. Deleting Snapshots</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="#4-Clone-a-table-from-snapshot">4. Clone a table from snapshot</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="#5-Restore-a-snapshot">5. Restore a snapshot</a><br/>
</nav>
## 一、前言
本文主要介绍Hbase常用的三种简单的容灾备份方案即CopyTable、Export/Import、Snapshot。分别介绍如下
## 二、CopyTable
### 2.1 简介
CopyTable 可以将现有表的数据复制到新表中,具有以下特点:
- 支持时间区间 、row区间,改变表名称, 改变列族名称,指定是否 Copy已经被删除的数据等功能
- 执行命令前,需先创建与原表结构相同的新表;
- CopyTable工具采用scan查询, 写入新表时采用put和delete API, 全是基于hbase的client Api进行读写。
### 2.2 命令格式
```shell
Usage: CopyTable [general options] [--starttime=X] [--endtime=Y] [--new.name=NEW] [--peer.adr=ADR] <tablename>
```
### 2.3 常用命令
1. 同集群下CopyTable
```shell
hbase org.apache.hadoop.hbase.mapreduce.CopyTable --new.name=tableCopy tableOrig
```
2. 不同集群下CopyTable
```shell
# 两表名称相同的情况
hbase org.apache.hadoop.hbase.mapreduce.CopyTable --peer.adr=dstClusterZK:2181:/hbase tableOrig
# 也可以指新的表名
hbase org.apache.hadoop.hbase.mapreduce.CopyTable --peer.adr=dstClusterZK:2181:/hbase --new.name=tableCopy tableOrig
```
3. 下面是一个官方给的比较完整的例子,指定开始和结束时间,集群地址,以及只复制指定的列族:
```shell
hbase org.apache.hadoop.hbase.mapreduce.CopyTable --starttime=1265875194289 --endtime=1265878794289 --peer.adr=server1,server2,server3:2181:/hbase --families=myOldCf:myNewCf,cf2,cf3 TestTable
```
### 2.4 更多参数
可以通过`--help`查看更多支持的参数
```shell
# hbase org.apache.hadoop.hbase.mapreduce.CopyTable --help
```
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hbase-copy-table.png"/> </div>
## 三、Export/Import
### 3.1 简介
- Export可导出数据到HDFS, 然后可通过Import导入数据, Export支持指定开始时间和结束时间, 因此可以做增量备份;
- Export导出工具与CopyTable一样是依赖hbase的scan读取数据
### 3.2 命令格式
```shell
# Export
bin/hbase org.apache.hadoop.hbase.mapreduce.Export <tablename> <outputdir> [<versions> [<starttime> [<endtime>]]]
# Inport
bin/hbase org.apache.hadoop.hbase.mapreduce.Import <tablename> <inputdir>
```
+ 对于导出,`outputdir`目录可以不用预先创建,程序会自动创建。导出完成后,导出的文件将由调用导出命令的用户拥有。
+ 默认情况下,仅导出给定`Cell`的最新版本,而不管存储的版本数量。要导出多个版本,需要将\<versions>替换为所需的版本数。
### 3.3 常用命令
1. 导出命令
```shell
hbase org.apache.hadoop.hbase.mapreduce.Export tableName hdfs路径/tableName.db
```
2. 导入命令
```
hbase org.apache.hadoop.hbase.mapreduce.Import tableName hdfs路径/tableName.db
```
## 四、Snapshot
### 4.1 简介
HBase快照Snapshot允许您获取表的副本包括内容和元数据并且性能开销很小。因为快照存储的仅仅是表的元数据和HFiles的信息。
快照的“clone”操作会从该快照创建新表快照的“restore”将表的内容还原到快照节点。“clone”和“restore”操作不需要复制任何数据因为底层HFiles包含HBase表数据的文件不会被任何操作修改修改的只是表的元数据信息。
其实在版本0.94.6之前备份或克隆表的唯一方法是使用CopyTable / ExportTable或者在禁用表后复制HDFS中的所有HFiles。这些方都会降低Region服务器性能复制/导出表),且在禁用表,会导致表无法读取或写入,这在实际的生产环境中都是不允许的。
### 4.2 配置
Snapshot快照功能默认是没有开启的如果要开启快照则需要预先在`hbase-site.xml`文件中添加如下配置项:
```xml
<property>
<name>hbase.snapshot.enabled</name>
<value>true</value>
</property>
```
### 4.3 常用命令
预先说明一下之前的CopyTable、Export/Import命令都是在系统环境下直接执行的而快照的所有命令都需要在Hbase Shell交互式命令行中执行。
#### 1. Take a Snapshot
```shell
# 拍摄快照
hbase> snapshot '表名', '快照名'
```
默认情况下拍摄快照之前会在内存中执行数据刷新。以保证内存中的数据包含在快照中。但是如果你不希望包含内存中的数据,则可以使用`SKIP_FLUSH`选项禁止刷新。
```shell
# 禁止内存刷新
hbase> snapshot '表名', '快照名', {SKIP_FLUSH => true}
```
#### 2. Listing Snapshots
```shell
# 获取快照列表
hbase> list_snapshots
```
#### 3. Deleting Snapshots
```shell
# 删除快照
hbase> delete_snapshot '快照名'
```
#### 4. Clone a table from snapshot
```shell
# 从现有的快照创建一张新表
hbase> clone_snapshot '快照名', '新表名'
```
#### 5. Restore a snapshot
将表恢复到快照节点,恢复操作需要先禁用表
```shell
hbase> disable '表名'
hbase> restore_snapshot '快照名'
```
这里还需要注意的是如果Hbase配置了基于Replication的主从复制由于Replication在日志级别工作而快照在文件系统级别工作因此在还原之后会出现副本与主服务器处于不同的状态的情况。这时候可以先停止同步所有服务器还原到一致的数据点后再重新建立同步。
## 参考资料
1. [Online Apache HBase Backups with CopyTable](https://blog.cloudera.com/blog/2012/06/online-hbase-backups-with-copytable-2/)
2. [Apache HBase ™ Reference Guide](http://hbase.apache.org/book.htm)

View File

@ -202,7 +202,15 @@ hadoop001
### 3.6 验证启动是否成功
### 3.6 启动
```shell
# bin/start-hbase.sh
```
### 3.7 验证启动是否成功
验证方式一JPS 查看进程其中HMaster,HRegionServer,HQuorumPeer三个进程是HBase的进程其中HQuorumPeer是Hbase内置的Zookeeper的进程其余的为HDFS和YARN的进程。

View File

@ -4,6 +4,14 @@
>
> 系统环境Centos 7.6
<nav>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#11-下载并解压">1.1 下载并解压</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#12-配置环境变量">1.2 配置环境变量</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#13-修改配置">1.3 修改配置</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#14-拷贝数据库驱动">1.4 拷贝数据库驱动</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#15-初始化元数据库">1.5 初始化元数据库</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#16-启动">1.6 启动</a><br/>
</nav>
### 1.1 下载并解压
下载所需版本的Hive这里我下载的是`cdh5.15.2`版本的Hive。下载地址为http://archive.cloudera.com/cdh5/cdh/5/
@ -86,7 +94,7 @@ HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
将MySQL驱动拷贝到Hive安装目录的`lib`目录下, MySQL驱动的下载地址为https://dev.mysql.com/downloads/connector/j/ , 在本仓库的resources目录下我也上传了一份有需要的可以自行下载。
![hive-mysql](D:\BigData-Notes\pictures\hive-mysql.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-mysql.png"/> </div>
@ -111,8 +119,8 @@ HADOOP_HOME=/usr/app/hadoop-2.6.0-cdh5.15.2
# Hive
```
![hive-install](D:\BigData-Notes\pictures\hive-install-2.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-install-2.png"/> </div>
在Mysql中也能看到Hive创建的库和存放元数据信息的表
![hive-mysql-tables](D:\BigData-Notes\pictures\hive-mysql-tables.png)
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hive-mysql-tables.png"/> </div>

Binary file not shown.

After

Width:  |  Height:  |  Size: 50 KiB