优化阅读格式

This commit is contained in:
heibaiying
2019-07-31 17:18:07 +08:00
parent ceb868fe13
commit ca7c99802b
91 changed files with 4059 additions and 4058 deletions

View File

@ -15,11 +15,11 @@
## 一、Flume简介
Apache Flume是一个分布式高可用的数据收集系统。它可以从不同的数据源收集数据经过聚合后发送到存储系统中通常用于日志数据的收集。Flume 分为 NG 和 OG (1.0 之前)两个版本NGOG的基础上进行了完全的重构是目前使用最为广泛的版本。下面的介绍均以NG为基础。
Apache Flume 是一个分布式高可用的数据收集系统。它可以从不同的数据源收集数据经过聚合后发送到存储系统中通常用于日志数据的收集。Flume 分为 NG 和 OG (1.0 之前) 两个版本NGOG 的基础上进行了完全的重构,是目前使用最为广泛的版本。下面的介绍均以 NG 为基础。
## 二、Flume架构和基本概念
下图为Flume的基本架构图
下图为 Flume 的基本架构图:
@ -27,7 +27,7 @@ Apache Flume是一个分布式高可用的数据收集系统。它可以从
### 2.1 基本架构
外部数据源以特定格式向Flume发送`events` (事件),当`source`接收到`events`时,它将其存储到一个或多个`channel``channe`会一直保存`events`直到它被`sink`所消费。`sink`的主要功能从`channel`中读取`events`,并将其存入外部存储系统或转发到下一个`source`,成功后再从`channel`中移除`events`
外部数据源以特定格式向 Flume 发送 `events` (事件),当 `source` 接收到 `events` 时,它将其存储到一个或多个 `channel``channe` 会一直保存 `events` 直到它被 `sink` 所消费。`sink` 的主要功能从 `channel` 中读取 `events`,并将其存入外部存储系统或转发到下一个 `source`,成功后再从 `channel` 中移除 `events`
@ -35,40 +35,40 @@ Apache Flume是一个分布式高可用的数据收集系统。它可以从
**1. Event**
`Evnet`Flume NG数据传输的基本单元。类似于JMS和消息系统中的消息。一个`Evnet`由标题和正文组成:前者是键/值映射,后者是任意字节数组。
`Evnet`Flume NG 数据传输的基本单元。类似于 JMS 和消息系统中的消息。一个 `Evnet` 由标题和正文组成:前者是键/值映射,后者是任意字节数组。
**2. Source**
数据收集组件从外部数据源收集数据并存储到Channel中。
数据收集组件,从外部数据源收集数据,并存储到 Channel 中。
**3. Channel**
`Channel`是源和接收器之间的管道,用于临时存储数据。可以是内存或持久化的文件系统:
`Channel` 是源和接收器之间的管道,用于临时存储数据。可以是内存或持久化的文件系统:
+ `Memory Channel` : 使用内存,优点是速度快,但数据可能会丢失(如突然宕机)
+ `Memory Channel` : 使用内存,优点是速度快,但数据可能会丢失 (如突然宕机)
+ `File Channel` : 使用持久化的文件系统,优点是能保证数据不丢失,但是速度慢。
**4. Sink**
`Sink`的主要功能从`Channel`中读取`Evnet`,并将其存入外部存储系统或将其转发到下一个`Source`,成功后再从`Channel`中移除`Event`
`Sink` 的主要功能从 `Channel` 中读取 `Evnet`,并将其存入外部存储系统或将其转发到下一个 `Source`,成功后再从 `Channel` 中移除 `Event`
**5. Agent**
是一个独立的(JVM)进程,包含`Source``Channel``Sink`等组件。
是一个独立的 (JVM) 进程,包含 `Source``Channel``Sink` 等组件。
### 2.3 组件种类
Flume中的每一个组件都提供了丰富的类型适用于不同场景
Flume 中的每一个组件都提供了丰富的类型,适用于不同场景:
- Source类型 :内置了几十种类型,如`Avro Source``Thrift Source``Kafka Source``JMS Source`
- Source 类型 :内置了几十种类型,如 `Avro Source``Thrift Source``Kafka Source``JMS Source`
- Sink类型 `HDFS Sink``Hive Sink``HBaseSinks``Avro Sink`等;
- Sink 类型 `HDFS Sink``Hive Sink``HBaseSinks``Avro Sink` 等;
- Channel类型 `Memory Channel``JDBC Channel``Kafka Channel``File Channel`等。
- Channel 类型 `Memory Channel``JDBC Channel``Kafka Channel``File Channel` 等。
对于Flume的使用除非有特别的需求否则通过组合内置的各种类型的SourceSinkChannel就能满足大多数的需求。在 [Flume官网](http://flume.apache.org/releases/content/1.9.0/FlumeUserGuide.html)上对所有类型组件的配置参数均以表格的方式做了详尽的介绍并附有配置样例同时不同版本的参数可能略有所不同所以使用时建议选取官网对应版本的User Guide作为主要参考资料。
对于 Flume 的使用,除非有特别的需求,否则通过组合内置的各种类型的 SourceSinkChannel 就能满足大多数的需求。在 [Flume 官网](http://flume.apache.org/releases/content/1.9.0/FlumeUserGuide.html) 上对所有类型组件的配置参数均以表格的方式做了详尽的介绍,并附有配置样例;同时不同版本的参数可能略有所不同,所以使用时建议选取官网对应版本的 User Guide 作为主要参考资料。
@ -84,7 +84,7 @@ Flume 支持多种架构模式,分别介绍如下
<br/>
Flume支持跨越多个Agent的数据传递这要求前一个AgentSink和下一个AgentSource都必须是`Avro`类型Sink指向Source所在主机名(或IP地址)和端口(详细配置见下文案例三)。
Flume 支持跨越多个 Agent 的数据传递,这要求前一个 AgentSink 和下一个 AgentSource 都必须是 `Avro` 类型Sink 指向 Source 所在主机名 (或 IP 地址) 和端口(详细配置见下文案例三)。
### 3.2 Consolidation
@ -94,21 +94,21 @@ Flume支持跨越多个Agent的数据传递这要求前一个Agent的Sink和
<br/>
日志收集中常常存在大量的客户端比如分布式web服务Flume支持使用多个Agent分别收集日志然后通过一个或者多个Agent聚合后再存储到文件系统中。
日志收集中常常存在大量的客户端(比如分布式 web 服务Flume 支持使用多个 Agent 分别收集日志,然后通过一个或者多个 Agent 聚合后再存储到文件系统中。
### 3.3 Multiplexing the flow
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/flume-multiplexing-the-flow.png"/> </div>
Flume支持从一个Source向多个Channel也就是向多个Sink传递事件这个操作称之为`Fan Out`(扇出)。默认情况下`Fan Out`是向所有的Channel复制`Event`即所有Channel收到的数据都是相同的。同时Flume也支持在`Source`上自定义一个复用选择器(multiplexing selector) 来实现自定义的路由规则。
Flume 支持从一个 Source 向多个 Channel也就是向多个 Sink 传递事件,这个操作称之为 `Fan Out`(扇出)。默认情况下 `Fan Out` 是向所有的 Channel 复制 `Event`,即所有 Channel 收到的数据都是相同的。同时 Flume 也支持在 `Source` 上自定义一个复用选择器 (multiplexing selector) 来实现自定义的路由规则。
## 四、Flume配置格式
Flume配置通常需要以下两个步骤
Flume 配置通常需要以下两个步骤:
1. 分别定义好AgentSourcesSinksChannels然后将SourcesSinks与通道进行绑定。需要注意的是一个Source可以配置多个Channel但一个Sink只能配置一个Channel。基本格式如下
1. 分别定义好 AgentSourcesSinksChannels然后将 SourcesSinks 与通道进行绑定。需要注意的是一个 Source 可以配置多个 Channel但一个 Sink 只能配置一个 Channel。基本格式如下
```shell
<Agent>.sources = <Source>
@ -122,7 +122,7 @@ Flume配置通常需要以下两个步骤
<Agent>.sinks.<Sink>.channel = <Channel1>
```
2. 分别定义SourceSinkChannel的具体属性。基本格式如下
2. 分别定义 SourceSinkChannel 的具体属性。基本格式如下:
```shell
@ -139,29 +139,29 @@ Flume配置通常需要以下两个步骤
## 五、Flume的安装部署
为方便大家后期查阅本仓库中所有软件的安装均单独成篇Flume的安装见
为方便大家后期查阅本仓库中所有软件的安装均单独成篇Flume 的安装见:
[Linux环境下Flume的安装部署](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Linux%E4%B8%8BFlume%E7%9A%84%E5%AE%89%E8%A3%85.md)
[Linux 环境下 Flume 的安装部署](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Linux%E4%B8%8BFlume%E7%9A%84%E5%AE%89%E8%A3%85.md)
## 六、Flume使用案例
介绍几个Flume的使用案例
介绍几个 Flume 的使用案例:
+ 案例一使用Flume监听文件内容变动将新增加的内容输出到控制台。
+ 案例二使用Flume监听指定目录将目录下新增加的文件存储到HDFS。
+ 案例三使用Avro将本服务器收集到的日志数据发送到另外一台服务器。
+ 案例一:使用 Flume 监听文件内容变动,将新增加的内容输出到控制台。
+ 案例二:使用 Flume 监听指定目录,将目录下新增加的文件存储到 HDFS。
+ 案例三:使用 Avro 将本服务器收集到的日志数据发送到另外一台服务器。
### 6.1 案例一
需求: 监听文件内容变动,将新增加的内容输出到控制台。
实现: 主要使用`Exec Source`配合`tail`命令实现。
实现: 主要使用 `Exec Source` 配合 `tail` 命令实现。
#### 1. 配置
新建配置文件`exec-memory-logger.properties`,其内容如下:
新建配置文件 `exec-memory-logger.properties`,其内容如下:
```properties
#指定agent的sources,sinks,channels
@ -211,9 +211,9 @@ flume-ng agent \
### 6.2 案例二
需求: 监听指定目录将目录下新增加的文件存储到HDFS。
需求: 监听指定目录,将目录下新增加的文件存储到 HDFS。
实现:使用`Spooling Directory Source``HDFS Sink`
实现:使用 `Spooling Directory Source``HDFS Sink`
#### 1. 配置
@ -257,7 +257,7 @@ flume-ng agent \
#### 3. 测试
拷贝任意文件到监听目录下可以从日志看到文件上传到HDFS的路径
拷贝任意文件到监听目录下,可以从日志看到文件上传到 HDFS 的路径:
```shell
# cp log.txt logs/
@ -265,7 +265,7 @@ flume-ng agent \
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/flume-example-3.png"/> </div>
查看上传到HDFS上的文件内容与本地是否一致
查看上传到 HDFS 上的文件内容与本地是否一致:
```shell
# hdfs dfs -cat /flume/events/19-04-09/13/log.txt.1554788567801
@ -279,11 +279,11 @@ flume-ng agent \
需求: 将本服务器收集到的数据发送到另外一台服务器。
实现:使用`avro sources``avro Sink`实现。
实现:使用 `avro sources``avro Sink` 实现。
#### 1. 配置日志收集Flume
新建配置`netcat-memory-avro.properties`,监听文件内容变化,然后将新的文件内容通过`avro sink`发送到hadoop001这台服务器的8888端口
新建配置 `netcat-memory-avro.properties`,监听文件内容变化,然后将新的文件内容通过 `avro sink` 发送到 hadoop001 这台服务器的 8888 端口:
```properties
#指定agent的sources,sinks,channels
@ -312,7 +312,7 @@ a1.channels.c1.transactionCapacity = 100
#### 2. 配置日志聚合Flume
使用 `avro source`监听hadoop001服务器的8888端口将获取到内容输出到控制台
使用 `avro source` 监听 hadoop001 服务器的 8888 端口,将获取到内容输出到控制台:
```properties
#指定agent的sources,sinks,channels
@ -342,7 +342,7 @@ a2.channels.c2.transactionCapacity = 100
#### 3. 启动
启动日志聚集Flume
启动日志聚集 Flume
```shell
flume-ng agent \
@ -351,7 +351,7 @@ flume-ng agent \
--name a2 -Dflume.root.logger=INFO,console
```
在启动日志收集Flume:
在启动日志收集 Flume:
```shell
flume-ng agent \
@ -360,16 +360,16 @@ flume-ng agent \
--name a1 -Dflume.root.logger=INFO,console
```
这里建议按以上顺序启动,原因是`avro.source`会先与端口进行绑定,这样`avro sink`连接时才不会报无法连接的异常。但是即使不按顺序启动也是没关系的,`sink`会一直重试,直至建立好连接。
这里建议按以上顺序启动,原因是 `avro.source` 会先与端口进行绑定,这样 `avro sink` 连接时才不会报无法连接的异常。但是即使不按顺序启动也是没关系的,`sink` 会一直重试,直至建立好连接。
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/flume-retry.png"/> </div>
#### 4.测试
向文件`tmp/log.txt`中追加内容:
向文件 `tmp/log.txt` 中追加内容:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/flume-example-8.png"/> </div>
可以看到已经从8888端口监听到内容并成功输出到控制台
可以看到已经从 8888 端口监听到内容,并成功输出到控制台:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/flume-example-9.png"/> </div>