This commit is contained in:
luoxiang 2019-06-02 08:49:19 +08:00
parent 52e93743f6
commit ef63a1ac54
4 changed files with 12 additions and 10 deletions

View File

@ -43,7 +43,7 @@
> 为方便查阅,所有软件的安装步骤统一整理至:[Linux下大数据常用软件安装指南](https://github.com/heibaiying/BigData-Notes/blob/master/notes/Linux中大数据常用软件安装指南.md)
> 为方便查阅,所有软件的安装步骤统一整理至:[大数据常用软件安装指南](https://github.com/heibaiying/BigData-Notes/blob/master/notes/大数据常用软件安装指南.md)

View File

@ -211,10 +211,14 @@ start-yarn.sh
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hadoop-集群环境搭建.png"/> </div>
<BR/>
点击`Live Nodes`进入,可以看到每个`DataNode`的详细情况:
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hadoop-集群搭建2.png"/> </div>
<BR/>
接着可以查看Yarn集群的情况端口号为`8088`
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hadoop-集群搭建3.png"/> </div>

View File

@ -163,14 +163,16 @@ start-master.sh
## 五、验证集群高可用
此时可以使用`kill`命令杀死hadoop001上的`Master`进程,此时`备用Master`会中会有一个再次成为`主Master`我这里是hadoop002可以看到hadoop2上的`Master`经过`RECOVERING`后成为了新的`Master`,并且获得了全部可以用的`Workers`此时如果你再在hadoop001上使用`start-master.sh`启动Master那么其会作为`备用Master`存在。
此时可以使用`kill`命令杀死hadoop001上的`Master`进程,此时备用`Master`会中会有一个再次成为`主Master`我这里是hadoop002可以看到hadoop2上的`Master`经过`RECOVERING`后成为了新的`Master`,并且获得了全部可以用的`Workers`
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/spark-集群搭建4.png"/> </div>
Hadoop002上的`Master`成为`Master`,并获得了全部可以用的`Workers`
Hadoop002上的`Master`成为`Master`,并获得了全部可以用的`Workers`
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/spark-集群搭建5.png"/> </div>
此时如果你再在hadoop001上使用`start-master.sh`启动Master服务那么其会作为备用`Master`存在。
## 六、提交作业
和单机环境下的提交到Yarn上的命令完全一致这里以Spark内置的计算Pi的样例程序为例提交命令如下

View File

@ -8,26 +8,22 @@
### 二、Hadoop
1. [Hadoop单机环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Hadoop单机环境搭建.md)
2. [Hadoop集群环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Hadoop集群环境搭建.md)
### 三、Spark
1. [Spark开发环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/SparkSpark开发环境搭建.md)
2. [基于Zookeeper搭建Spark高可用集群](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/SparkSpark集群环境搭建.md)
2. [基于Zookeeper搭建Spark高可用集群](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Spark集群环境搭建.md)
### 四、Storm
1. [Storm单机环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Storm单机环境搭建.md)
2. [Storm集群环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Storm集群环境搭建.md)
### 五、HBase
1. [Hbase单机环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Hbase单机环境搭建.md)
2. [Hbase集群环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/Hbase集群环境搭建.md)
1. [HBase单机环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/HBase单机环境搭建.md)
2. [HBase集群环境搭建](https://github.com/heibaiying/BigData-Notes/blob/master/notes/installation/HBase集群环境搭建.md)
### 六、Flume