优化阅读格式

This commit is contained in:
heibaiying
2019-07-31 17:18:07 +08:00
parent ceb868fe13
commit ca7c99802b
91 changed files with 4059 additions and 4058 deletions

View File

@ -20,7 +20,7 @@
## 一、简述
在使用HBase时如果你的数据量达到了数十亿行或数百万列此时能否在查询中返回大量数据将受制于网络的带宽即便网络状况允许但是客户端的计算处理也未必能够满足要求。在这种情况下协处理器Coprocessors应运而生。它允许你将业务计算代码放入在RegionServer的协处理器中将处理好的数据再返回给客户端这可以极大地降低需要传输的数据量从而获得性能上的提升。同时协处理器也允许用户扩展实现HBase目前所不具备的功能如权限校验、二级索引、完整性约束等。
在使用 HBase 如果你的数据量达到了数十亿行或数百万列此时能否在查询中返回大量数据将受制于网络的带宽即便网络状况允许但是客户端的计算处理也未必能够满足要求。在这种情况下协处理器Coprocessors应运而生。它允许你将业务计算代码放入在 RegionServer 的协处理器中,将处理好的数据再返回给客户端,这可以极大地降低需要传输的数据量,从而获得性能上的提升。同时协处理器也允许用户扩展实现 HBase 目前所不具备的功能,如权限校验、二级索引、完整性约束等。
@ -30,24 +30,24 @@
#### 1. 功能
Observer协处理器类似于关系型数据库中的触发器当发生某些事件的时候这类协处理器会被Server端调用。通常可以用来实现下面功能
Observer 协处理器类似于关系型数据库中的触发器,当发生某些事件的时候这类协处理器会被 Server 端调用。通常可以用来实现下面功能:
+ **权限校验**:在执行`Get``Put`操作之前,您可以使用`preGet``prePut`方法检查权限;
+ **完整性约束** HBase不支持关系型数据库中的外键功能可以通过触发器在插入或者删除数据的时候对关联的数据进行检查
+ **权限校验**:在执行 `Get``Put` 操作之前,您可以使用 `preGet``prePut` 方法检查权限;
+ **完整性约束** HBase 不支持关系型数据库中的外键功能,可以通过触发器在插入或者删除数据的时候,对关联的数据进行检查;
+ **二级索引** 可以使用协处理器来维护二级索引。
</br>
#### 2. 类型
当前Observer协处理器有以下四种类型
当前 Observer 协处理器有以下四种类型:
+ **RegionObserver** :
允许您观察Region上的事件例如GetPut操作。
允许您观察 Region 上的事件,例如 GetPut 操作。
+ **RegionServerObserver** :
允许您观察与RegionServer操作相关的事件例如启动停止或执行合并提交或回滚。
允许您观察与 RegionServer 操作相关的事件,例如启动,停止或执行合并,提交或回滚。
+ **MasterObserver** :
允许您观察与HBase Master相关的事件例如表创建删除或schema修改。
允许您观察与 HBase Master 相关的事件,例如表创建,删除或 schema 修改。
+ **WalObserver** :
允许您观察与预写日志WAL相关的事件。
@ -55,11 +55,11 @@ Observer协处理器类似于关系型数据库中的触发器当发生某些
#### 3. 接口
以上四种类型的Observer协处理器均继承自`Coprocessor`接口这四个接口中分别定义了所有可用的钩子方法以便在对应方法前后执行特定的操作。通常情况下我们并不会直接实现上面接口而是继承其Base实现类Base实现类只是简单空实现了接口中的方法这样我们在实现自定义的协处理器时就不必实现所有方法只需要重写必要方法即可。
以上四种类型的 Observer 协处理器均继承自 `Coprocessor` 接口,这四个接口中分别定义了所有可用的钩子方法,以便在对应方法前后执行特定的操作。通常情况下,我们并不会直接实现上面接口,而是继承其 Base 实现类Base 实现类只是简单空实现了接口中的方法,这样我们在实现自定义的协处理器时,就不必实现所有方法,只需要重写必要方法即可。
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hbase-coprocessor.png"/> </div>
这里以`RegionObservers `为例,其接口类中定义了所有可用的钩子方法,下面截取了部分方法的定义,多数方法都是成对出现的,有`pre`就有`post`
这里以 `RegionObservers ` 为例,其接口类中定义了所有可用的钩子方法,下面截取了部分方法的定义,多数方法都是成对出现的,有 `pre` 就有 `post`
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/RegionObserver.png"/> </div>
@ -72,32 +72,32 @@ Observer协处理器类似于关系型数据库中的触发器当发生某些
+ 客户端发出 put 请求
+ 该请求被分派给合适的 RegionServer 和 region
+ coprocessorHost 拦截该请求,然后在该表的每个 RegionObserver 上调用 prePut()
+ 如果没有被`prePut()`拦截,该请求继续送到 region然后进行处理
+ region 产生的结果再次被 CoprocessorHost 拦截,调用`postPut()`
+ 假如没有`postPut()`拦截该响应,最终结果被返回给客户端
+ 如果没有被 `prePut()` 拦截,该请求继续送到 region然后进行处理
+ region 产生的结果再次被 CoprocessorHost 拦截,调用 `postPut()`
+ 假如没有 `postPut()` 拦截该响应,最终结果被返回给客户端
如果大家了解Spring可以将这种执行方式类比于其AOP的执行原理即可官方文档当中也是这样类比的
如果大家了解 Spring可以将这种执行方式类比于其 AOP 的执行原理即可,官方文档当中也是这样类比的:
>If you are familiar with Aspect Oriented Programming (AOP), you can think of a coprocessor as applying advice by intercepting a request and then running some custom code,before passing the request on to its final destination (or even changing the destination).
>
>如果您熟悉面向切面编程AOP您可以将协处理器视为通过拦截请求然后运行一些自定义代码来使用Advice然后将请求传递到其最终目标或者更改目标
>如果您熟悉面向切面编程AOP您可以将协处理器视为通过拦截请求然后运行一些自定义代码来使用 Advice然后将请求传递到其最终目标或者更改目标
### 2.2 Endpoint协处理器
Endpoint协处理器类似于关系型数据库中的存储过程。客户端可以调用Endpoint协处理器在服务端对数据进行处理然后再返回。
Endpoint 协处理器类似于关系型数据库中的存储过程。客户端可以调用 Endpoint 协处理器在服务端对数据进行处理,然后再返回。
以聚集操作为例,如果没有协处理器,当用户需要找出一张表中的最大数据,即 max 聚合操作,就必须进行全表扫描,然后在客户端上遍历扫描结果,这必然会加重了客户端处理数据的压力。利用 Coprocessor用户可以将求最大值的代码部署到 HBase Server 端HBase将利用底层 cluster 的多个节点并发执行求最大值的操作。即在每个 Region 范围内执行求最大值的代码,将每个 Region 的最大值在 Region Server 端计算出来,仅仅将该 max 值返回给客户端。之后客户端只需要将每个 Region 的最大值进行比较而找到其中最大的值即可。
以聚集操作为例,如果没有协处理器,当用户需要找出一张表中的最大数据,即 max 聚合操作,就必须进行全表扫描,然后在客户端上遍历扫描结果,这必然会加重了客户端处理数据的压力。利用 Coprocessor用户可以将求最大值的代码部署到 HBase Server 端HBase 将利用底层 cluster 的多个节点并发执行求最大值的操作。即在每个 Region 范围内执行求最大值的代码,将每个 Region 的最大值在 Region Server 端计算出来,仅仅将该 max 值返回给客户端。之后客户端只需要将每个 Region 的最大值进行比较而找到其中最大的值即可。
## 三、协处理的加载方式
要使用我们自己开发的协处理器必须通过静态使用HBase配置或动态使用HBase ShellJava API加载它。
要使用我们自己开发的协处理器,必须通过静态(使用 HBase 配置)或动态(使用 HBase ShellJava API加载它。
+ 静态加载的协处理器称之为 **System Coprocessor**(系统级协处理器),作用范围是整个HBase上的所有表需要重启HBase服务
+ 动态加载的协处理器称之为 **Table Coprocessor**表处理器作用于指定的表不需要重启HBase服务。
+ 静态加载的协处理器称之为 **System Coprocessor**(系统级协处理器),作用范围是整个 HBase 上的所有表,需要重启 HBase 服务;
+ 动态加载的协处理器称之为 **Table Coprocessor**(表处理器),作用于指定的表,不需要重启 HBase 服务。
其加载和卸载方式分别介绍如下。
@ -109,7 +109,7 @@ Endpoint协处理器类似于关系型数据库中的存储过程。客户端可
静态加载分以下三步:
1.`hbase-site.xml`定义需要加载的协处理器。
1. `hbase-site.xml` 定义需要加载的协处理器。
```xml
<property>
@ -118,44 +118,44 @@ Endpoint协处理器类似于关系型数据库中的存储过程。客户端可
</property>
```
` <name>`标签的值必须是下面其中之一:
` <name>` 标签的值必须是下面其中之一:
+ RegionObservers 和 Endpoints协处理器`hbase.coprocessor.region.classes`
+ WALObservers协处理器 `hbase.coprocessor.wal.classes`
+ MasterObservers协处理器`hbase.coprocessor.master.classes`
+ RegionObservers 和 Endpoints 协处理器:`hbase.coprocessor.region.classes`
+ WALObservers 协处理器: `hbase.coprocessor.wal.classes`
+ MasterObservers 协处理器:`hbase.coprocessor.master.classes`
`<value>`必须是协处理器实现类的全限定类名。如果为加载指定了多个类,则类名必须以逗号分隔。
`<value>` 必须是协处理器实现类的全限定类名。如果为加载指定了多个类,则类名必须以逗号分隔。
2. 将jar(包含代码和所有依赖项)放入HBase安装目录中的`lib`目录下;
2. jar(包含代码和所有依赖项) 放入 HBase 安装目录中的 `lib` 目录下;
3. 重启HBase。
3. 重启 HBase。
</br>
### 4.2 静态卸载
1. 从hbase-site.xml中删除配置的协处理器的\<property>元素及其子元素;
1. hbase-site.xml 中删除配置的协处理器的\<property>元素及其子元素;
2. 从类路径或HBaselib目录中删除协处理器的JAR文件可选
2. 从类路径或 HBaselib 目录中删除协处理器的 JAR 文件(可选);
3. 重启HBase。
3. 重启 HBase。
## 五、动态加载与卸载
使用动态加载协处理器不需要重新启动HBase。但动态加载的协处理器是基于每个表加载的只能用于所指定的表。
使用动态加载协处理器,不需要重新启动 HBase。但动态加载的协处理器是基于每个表加载的只能用于所指定的表。
此外在使用动态加载必须使表脱机disable以加载协处理器。动态加载通常有两种方式Shell 和 Java API 。
> 以下示例基于两个前提:
>
> 1. coprocessor.jar 包含协处理器实现及其所有依赖项。
> 2. JAR 包存放在HDFS上的路径为hdfs// \<namenode>\<port> / user / \<hadoop-user> /coprocessor.jar
> 2. JAR 包存放在 HDFS 上的路径为hdfs// \<namenode>\<port> / user / \<hadoop-user> /coprocessor.jar
### 5.1 HBase Shell动态加载
1. 使用HBase Shell禁用表
1. 使用 HBase Shell 禁用表
```shell
hbase > disable 'tableName'
@ -169,12 +169,12 @@ user/<hadoop-user>/coprocessor.jar| org.myname.hbase.Coprocessor.RegionObserverE
arg1=1,arg2=2'
```
`Coprocessor`包含由管道(|)字符分隔的四个参数,按顺序解释如下:
`Coprocessor` 包含由管道(|)字符分隔的四个参数,按顺序解释如下:
+ **JAR包路径**通常为JAR包在HDFS上的路径。关于路径以下两点需要注意
+ 允许使用通配符,例如:`hdfs://<namenode>:<port>/user/<hadoop-user>/*.jar` 来添加指定的JAR包
+ **JAR 包路径**:通常为 JAR 包在 HDFS 上的路径。关于路径以下两点需要注意:
+ 允许使用通配符,例如:`hdfs://<namenode>:<port>/user/<hadoop-user>/*.jar` 来添加指定的 JAR 包;
+ 可以使指定目录,例如:`hdfs://<namenode>:<port>/user/<hadoop-user>/` 这会添加目录中的所有JAR包但不会搜索子目录中的JAR包。
+ 可以使指定目录,例如:`hdfs://<namenode>:<port>/user/<hadoop-user>/` ,这会添加目录中的所有 JAR 包,但不会搜索子目录中的 JAR 包。
+ **类名**:协处理器的完整类名。
+ **优先级**:协处理器的优先级,遵循数字的自然序,即值越小优先级越高。可以为空,在这种情况下,将分配默认优先级值。
@ -192,7 +192,7 @@ hbase > enable 'tableName'
hbase > describe 'tableName'
```
协处理器出现在`TABLE_ATTRIBUTES`属性中则代表加载成功。
协处理器出现在 `TABLE_ATTRIBUTES` 属性中则代表加载成功。
</br>
@ -241,7 +241,7 @@ admin.modifyTable(tableName, hTableDescriptor);
admin.enableTable(tableName);
```
在HBase 0.96及其以后版本中HTableDescriptoraddCoprocessor()方法提供了一种更为简便的加载方法。
HBase 0.96 及其以后版本中HTableDescriptoraddCoprocessor() 方法提供了一种更为简便的加载方法。
```java
TableName tableName = TableName.valueOf("users");
@ -291,7 +291,7 @@ admin.enableTable(tableName);
## 六、协处理器案例
这里给出一个简单的案例实现一个类似于Redis`append` 命令的协处理器当我们对已有列执行put操作时候HBase默认执行的是update操作这里我们修改为执行append操作。
这里给出一个简单的案例,实现一个类似于 Redis`append` 命令的协处理器,当我们对已有列执行 put 操作时候HBase 默认执行的是 update 操作,这里我们修改为执行 append 操作。
```shell
# redis append 命令示例
@ -316,7 +316,7 @@ hbase > create 'magazine','article','picture'
> 完整代码可见本仓库:[hbase-observer-coprocessor](https://github.com/heibaiying/BigData-Notes/tree/master/code/Hbase\hbase-observer-coprocessor)
新建Maven工程导入下面依赖
新建 Maven 工程,导入下面依赖:
```xml
<dependency>
@ -331,7 +331,7 @@ hbase > create 'magazine','article','picture'
</dependency>
```
继承`BaseRegionObserver`实现我们自定义的`RegionObserver`,对相同的`article:content`执行put命令时将新插入的内容添加到原有内容的末尾代码如下
继承 `BaseRegionObserver` 实现我们自定义的 `RegionObserver`,对相同的 `article:content` 执行 put 命令时,将新插入的内容添加到原有内容的末尾,代码如下:
```java
public class AppendRegionObserver extends BaseRegionObserver {
@ -369,7 +369,7 @@ public class AppendRegionObserver extends BaseRegionObserver {
### 6.3 打包项目
使用maven命令进行打包打包后的文件名为`hbase-observer-coprocessor-1.0-SNAPSHOT.jar`
使用 maven 命令进行打包,打包后的文件名为 `hbase-observer-coprocessor-1.0-SNAPSHOT.jar`
```shell
# mvn clean package
@ -411,7 +411,7 @@ hbase > enable 'magazine'
hbase > desc 'magazine'
```
协处理器出现在`TABLE_ATTRIBUTES`属性中则代表加载成功,如下图:
协处理器出现在 `TABLE_ATTRIBUTES` 属性中则代表加载成功,如下图:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hbase-cp-load.png"/> </div>
@ -426,7 +426,7 @@ hbase > put 'magazine', 'rowkey1','article:content','World'
hbase > get 'magazine','rowkey1','article:content'
```
可以看到对于指定列的值已经执行了append操作
可以看到对于指定列的值已经执行了 append 操作:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hbase-cp-helloworld.png"/> </div>
@ -439,7 +439,7 @@ hbase > put 'magazine', 'rowkey1','article:author','lisi'
hbase > get 'magazine','rowkey1','article:author'
```
可以看到对于正常的列还是执行update操作:
可以看到对于正常的列还是执行 update 操作:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hbase-cp-lisi.png"/> </div>
@ -487,4 +487,4 @@ hbase > get 'magazine','rowkey1','article:content'
1. [Apache HBase Coprocessors](http://hbase.apache.org/book.html#cp)
2. [Apache HBase Coprocessor Introduction](https://blogs.apache.org/hbase/entry/coprocessor_introduction)
3. [HBase高階知識](https://www.itread01.com/content/1546245908.html)
3. [HBase 高階知識](https://www.itread01.com/content/1546245908.html)