Azkaban Flow 2.0的使用

This commit is contained in:
罗祥 2019-06-03 15:10:22 +08:00
parent 735d0ae3f0
commit 4bac5f80a5

View File

@ -1,310 +1,296 @@
# Azkaban Flow 2.0的使用 # Azkaban Flow 2.0的使用
<nav>
<nav>
<a href="#一Flow-20-简介">一、Flow 2.0 简介</a><br/> <a href="#一Flow-20-简介">一、Flow 2.0 简介</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#11-Flow-20-的产生">1.1 Flow 2.0 的产生</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#12-基本结构">1.2 基本结构</a><br/>
<a href="#二YAML语法">二、YAML语法</a><br/> <a href="#二YAML语法">二、YAML语法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#21-基本规则">2.1 基本规则</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#22-对象的写法">2.2 对象的写法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#23-map的写法">2.3 map的写法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#23-数组的写法">2.3 数组的写法</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#25-单双引号">2.5 单双引号</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#26-特殊符号">2.6 特殊符号</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#27-配置引用">2.7 配置引用</a><br/>
<a href="#三简单任务调度">三、简单任务调度</a><br/> <a href="#三简单任务调度">三、简单任务调度</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#31-任务配置">3.1 任务配置</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#32-打包上传">3.2 打包上传</a><br/>
&nbsp;&nbsp;&nbsp;&nbsp;<a href="#33-执行结果">3.3 执行结果</a><br/>
<a href="#四多任务调度">四、多任务调度</a><br/> <a href="#四多任务调度">四、多任务调度</a><br/>
<a href="#五内嵌流">五、内嵌流</a><br/> <a href="#五内嵌流">五、内嵌流</a><br/>
</nav> </nav>
## 一、Flow 2.0 简介
## 一、Flow 2.0 简介
### 1.1 Flow 2.0 的产生
### 1.1 Flow 2.0 的产生
Azkaban 目前同时支持Flow 1.0和Flow2.0,但是官方文档上更推荐使用2.0因为Flow 1.0 会在将来的版本被移除。
Azkaban 目前同时支持 Flow 1.0 和 Flow2.0 但是官方文档上更推荐使用Flow 2.0因为Flow 1.0会在将来的版本被移除。Flow 2.0的主要设计思想是提供1.0所没有的流级定义。用户可以将属于给定流的所有`job / properties`文件合并到单个流定义文件中其内容采用YAML语法进行定义同时还支持在流中再定义流称为为嵌入流或子流。
>This section covers how to create your Azkaban flows using Azkaban Flow 2.0.Flow 1.0 will be deprecated in the future.
### 1.2 基本结构
Flow 2.0设计的主要思想是提供1.0版本没有的流级定义。用户可以将属于给定流的所有.job / .properties文件合并到单个流定义文件中而不是创建多个.job / .properties文件。配置文件以YAML格式定义每个项目zip将包含多个流YAML文件和一个项目YAML文件。同时可以在YAML文件中的流内定义流称为为嵌入流或子流。
项目zip将包含多个流YAML文件一个项目YAML文件以及可选库和源代码。Flow YAML文件的基本结构如下
### 1.2 基本结构
+ 每个Flow都在单个YAML文件中定义
项目zip将包含多个流YAML文件一个项目YAML文件以及可选库和源代码。Flow YAML文件的基本结构如下 + 流文件以流名称命名。如:`my-flow-name.flow`
+ 包含DAG中的所有节点
+ 每个Flow都在单个YAML文件中定义 + 每个节点可以是作业或流程;
+ 流文件以流名称命名。如my-flow-name.flow + 每个节点 可以拥有 name, type, config, dependsOn 和 nodes sections等属性
+ 包含DAG中的所有节点 + 通过列出dependsOn列表中的父节点来指定节点依赖性
+ 每个节点可以是作业或流程 + 包含与流相关的其他配置;
+ 每个节点 可以拥有 name, type, config, dependsOn and nodes sections等属性 + 当前properties文件中流的所有常见属性都将迁移到每个流YAML文件中的config部分。
+ 通过列出dependsOn列表中的父节点来指定节点依赖性
+ 包含与流相关的其他配置 官方提供了一个比较完善的配置样例,如下:
+ 当前.properties文件中流的所有常见属性都将迁移到每个流YAML文件中的config部分
```yaml
官方提供了一个比较完善的配置样例,如下: config:
user.to.proxy: azktest
```yaml param.hadoopOutData: /tmp/wordcounthadoopout
config: param.inData: /tmp/wordcountpigin
user.to.proxy: azktest param.outData: /tmp/wordcountpigout
param.hadoopOutData: /tmp/wordcounthadoopout
param.inData: /tmp/wordcountpigin # This section defines the list of jobs
param.outData: /tmp/wordcountpigout # A node can be a job or a flow
# In this example, all nodes are jobs
# This section defines the list of jobs nodes:
# A node can be a job or a flow # Job definition
# In this example, all nodes are jobs # The job definition is like a YAMLified version of properties file
nodes: # with one major difference. All custom properties are now clubbed together
# Job definition # in a config section in the definition.
# The job definition is like a YAMLified version of properties file # The first line describes the name of the job
# with one major difference. All custom properties are now clubbed together - name: AZTest
# in a config section in the definition. type: noop
# The first line describes the name of the job # The dependsOn section contains the list of parent nodes the current
- name: AZTest # node depends on
type: noop dependsOn:
# The dependsOn section contains the list of parent nodes the current - hadoopWC1
# node depends on - NoOpTest1
dependsOn: - hive2
- hadoopWC1 - java1
- NoOpTest1 - jobCommand2
- hive2
- java1 - name: pigWordCount1
- jobCommand2 type: pig
# The config section contains custom arguments or parameters which are
- name: pigWordCount1 # required by the job
type: pig config:
# The config section contains custom arguments or parameters which are pig.script: src/main/pig/wordCountText.pig
# required by the job
config: - name: hadoopWC1
pig.script: src/main/pig/wordCountText.pig type: hadoopJava
dependsOn:
- name: hadoopWC1 - pigWordCount1
type: hadoopJava config:
dependsOn: classpath: ./*
- pigWordCount1 force.output.overwrite: true
config: input.path: ${param.inData}
classpath: ./* job.class: com.linkedin.wordcount.WordCount
force.output.overwrite: true main.args: ${param.inData} ${param.hadoopOutData}
input.path: ${param.inData} output.path: ${param.hadoopOutData}
job.class: com.linkedin.wordcount.WordCount
main.args: ${param.inData} ${param.hadoopOutData} - name: hive1
output.path: ${param.hadoopOutData} type: hive
config:
- name: hive1 hive.script: src/main/hive/showdb.q
type: hive
config: - name: NoOpTest1
hive.script: src/main/hive/showdb.q type: noop
- name: NoOpTest1 - name: hive2
type: noop type: hive
dependsOn:
- name: hive2 - hive1
type: hive config:
dependsOn: hive.script: src/main/hive/showTables.sql
- hive1
config: - name: java1
hive.script: src/main/hive/showTables.sql type: javaprocess
config:
- name: java1 Xms: 96M
type: javaprocess java.class: com.linkedin.foo.HelloJavaProcessJob
config:
Xms: 96M - name: jobCommand1
java.class: com.linkedin.foo.HelloJavaProcessJob type: command
config:
- name: jobCommand1 command: echo "hello world from job_command_1"
type: command
config: - name: jobCommand2
command: echo "hello world from job_command_1" type: command
dependsOn:
- name: jobCommand2 - jobCommand1
type: command config:
dependsOn: command: echo "hello world from job_command_2"
- jobCommand1 ```
config:
command: echo "hello world from job_command_2" ## 二、YAML语法
```
想要使用 Flow 2.0 进行工作流的配置首先需要了解YAML 。YAML 是一种简洁的非标记语言有着严格的格式要求的如果你的格式配置失败上传到Azkaban的时候就会抛出解析异常。
## 二、YAML语法
### 2.1 基本规则
想要进行Flow流的配置首先需要了解YAML YAML 是一种简洁的非标记语言有着严格的格式要求的如果你的格式配置失败上传到Azkaban的时候就会抛出解析异常。
1. 大小写敏感
### 2.1 基本规则 2. 使用缩进表示层级关系
3. 缩进长度没有限制,只要元素对齐就表示这些元素属于一个层级;
1. 大小写敏感 4. 使用#表示注释
2. 使用缩进表示层级关系 5. 字符串默认不用加单双引号,但单引号和双引号都可以使用,双引号表示不需要对特殊字符进行转义;
3. 缩进长度没有限制,只要元素对齐就表示这些元素属于一个层级。 6. YAML中提供了多种常量结构包括整数浮点数字符串NULL日期布尔时间。
4. 使用#表示注释
5. 字符串默认不用加单双引号,但单引号和双引号都可以使用,双引号不会对特殊字符转义。 ### 2.2 对象的写法
6. YAML中提供了多种常量结构包括整数浮点数字符串NULL日期布尔时间。
```yaml
### 2.2 对象的写法 # value 与 符号之间必须要有一个空格
key: value
```yaml ```
# value 与 符号之间必须要有一个空格
key: value ### 2.3 map的写法
```
```yaml
### 2.3 map的写法 # 写法一 同一缩进的所有键值对属于一个map
key:
```yaml key1: value1
# 写法一 同一缩进的所有键值对属于一个map key2: value2
key:
key1: value1 # 写法二
key2: value2 {key1: value1, key2: value2}
```
# 写法二
{key1: value1, key2: value2} ### 2.3 数组的写法
```
```yaml
### 2.3 数组的写法 # 写法一 使用一个短横线加一个空格代表一个数组项
- a
```yaml - b
# 写法一 使用一个短横线加一个空格代表一个数组项 - c
- a
- b # 写法二
- c [a,b,c]
```
# 写法二
[a,b,c] ### 2.5 单双引号
```
支持单引号和双引号,但双引号不会对特殊字符进行转义:
### 2.5 单双引号
```yaml
单引号和双引号都可以使用,双引号不会对特殊字符转义。 s1: '内容\n字符串'
s2: "内容\n字符串"
```yaml
s1: '内容\n字符串' 转换后:
s2: "内容\n字符串" { s1: '内容\\n字符串', s2: '内容\n字符串' }
```
转换后:
{ s1: '内容\\n字符串', s2: '内容\n字符串' } ### 2.6 特殊符号
```
一个YAML文件中可以包括多个文档使用`---`进行分割。
### 2.6 特殊符号
### 2.7 配置引用
`---` YAML可以在同一个文件中使用`---`表示一个文档的开始。
Flow 2.0 建议将公共参数定义在`config`下,并通过`${}`进行引用。
### 2.7 配置引用
在Azkaban中可以使用`${}`引用定义的配置同时也建议将公共的参数抽取到config中并使用`${}`进行引用。
## 三、简单任务调度
### 3.1 任务配置
## 三、简单任务调度
新建`flow`配置文件:
### 3.1 任务配置
```yaml
新建`flow`配置文件 nodes:
- name: jobA
```yaml type: command
nodes: config:
- name: jobA command: echo "Hello Azkaban Flow 2.0."
type: command ```
config:
command: echo "Hello Azkaban Flow 2.0." 在当前的版本中Azkaban同时支持 Flow 1.0 和 Flow 2.0如果你希望以2.0的方式运行,则需要新建一个`project`文件指明是使用的是Flow 2.0
```
```shell
在当前的版本中由于Azkaban是同时支持Flow 1.0 和 Flow 2.0的如果你想让Azkaban知道你是希望以2.0方式运行,则需要新建一个`project`文件指明是使用的Flow 2.0 azkaban-flow-version: 2.0
```
```shell
azkaban-flow-version: 2.0 ### 3.2 打包上传
```
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-simple.png"/> </div>
### 3.2 打包上传
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-simple.png"/> </div>
### 3.3 执行结果
由于在1.0 版本中已经介绍过Web UI的使用这里就不再赘述。对于1.0和2.0版本,只有配置方式有所不同,其他上传执行的方式都是相同的。执行结果如下:
### 3.3 执行结果
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-simle-result.png"/> </div>
由于在1.0 版本中已经介绍过web ui的使用这里就不再赘述对于1.0和2.0版本,只有配置的方式是不同的,其他上传执行的操作方式都是相同的。执行结果如下:
## 四、多任务调度
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-simle-result.png"/> </div>
和1.0给出的案例一样这里假设我们有五个任务jobA——jobE, D 任务需要在ABC任务执行完成后才能执行而 E 任务则需要在 D 任务执行完成后才能执行相关配置文件应如下。可以看到在1.0中我们需要分别定义五个配置文件而在2.0中我们只需要一个配置文件即可完成配置。
## 四、多任务调度
```yaml
和1.0给的案例一样这里假设我们有五个任务jobA——jobE,D任务需要在ABC任务执行完成后才能执行而E任务则需要在D任务执行完成后才能执行。`Flow`配置如下。可以看到在1.0中我们需要分别定义五个配置文件而在2.0中我们只需要一个配置文件即可完成配置。 nodes:
- name: jobE
```yaml type: command
nodes: config:
- name: jobE command: echo "This is job E"
type: command # jobE depends on jobD
config: dependsOn:
command: echo "This is job E" - jobD
# jobE depends on jobD
dependsOn: - name: jobD
- jobD type: command
config:
- name: jobD command: echo "This is job D"
type: command # jobD depends on jobA、jobB、jobC
config: dependsOn:
command: echo "This is job D" - jobA
# jobD depends on jobA、jobB、jobC - jobB
dependsOn: - jobC
- jobA
- jobB - name: jobA
- jobC type: command
config:
- name: jobA command: echo "This is job A"
type: command
config: - name: jobB
command: echo "This is job A" type: command
config:
- name: jobB command: echo "This is job B"
type: command
config: - name: jobC
command: echo "This is job B" type: command
config:
- name: jobC command: echo "This is job C"
type: command ```
config:
command: echo "This is job C" ## 五、内嵌流
```
Flow2.0 支持在一个Flow中定义另一个Flow称为内嵌流或者子流。这里给出一个内嵌流的示例`Flow`配置如下:
## 五、内嵌流
```yaml
Flow2.0 支持在一个Flow中定义另一个Flow称为内嵌流或者子流。这里给出一个内嵌流的示例`Flow`配置如下: nodes:
- name: jobC
```yaml type: command
nodes: config:
- name: jobC command: echo "This is job C"
type: command dependsOn:
config: - embedded_flow
command: echo "This is job C"
dependsOn: - name: embedded_flow
- embedded_flow type: flow
config:
- name: embedded_flow prop: value
type: flow nodes:
config: - name: jobB
prop: value type: command
nodes: config:
- name: jobB command: echo "This is job B"
type: command dependsOn:
config: - jobA
command: echo "This is job B"
dependsOn: - name: jobA
- jobA type: command
config:
- name: jobA command: echo "This is job A"
type: command ```
config:
command: echo "This is job A" 内嵌流的DAG图如下
```
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-embeded-flow.png"/> </div>
内嵌流的DAG图如下
执行情况如下:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-embeded-flow.png"/> </div>
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-embeded-success.png"/> </div>
执行情况如下:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/azkaban-embeded-success.png"/> </div>
## 参考资料
1. [Azkaban Flow 2.0 Design](https://github.com/azkaban/azkaban/wiki/Azkaban-Flow-2.0-Design)
## 参考资料 2. [Getting started with Azkaban Flow 2.0](https://github.com/azkaban/azkaban/wiki/Getting-started-with-Azkaban-Flow-2.0)
1. [Azkaban Flow 2.0 Design](https://github.com/azkaban/azkaban/wiki/Azkaban-Flow-2.0-Design)
2. [Getting started with Azkaban Flow 2.0](https://github.com/azkaban/azkaban/wiki/Getting-started-with-Azkaban-Flow-2.0)