5.1 KiB
Storm集群环境搭建
一、集群规划二、环境要求
三、集群搭建
1. 下载并解压
2. 配置环境变量
3. 集群配置
4. 安装包分发
四. 启动集群
4.1 启动ZooKeeper集群
4.2 启动Storm集群
4.3 查看集群
一、集群规划
这里我们采用三台服务器搭建一个Storm集群,集群由一个1个Nimbus和3个Supervisor组成,因为只有三台服务器,所以hadoop001上既为Nimbus节点,也为Supervisor节点。

二、环境要求
Storm 运行依赖于Java 7+ 和 Python 2.6.6 +,所以需要预先安装这两个软件。同时为了保证高可用,这里我们不采用Storm内置的Zookeeper,而采用外置的Zookeeper集群。由于这三个软件在多个框架中都有依赖,其安装步骤单独整理至 :
三、集群搭建
1. 下载并解压
下载安装包,之后进行解压。官方下载地址:http://storm.apache.org/downloads.html
# 解压
tar -zxvf apache-storm-1.2.2.tar.gz
2. 配置环境变量
# vim /etc/profile
添加环境变量:
export STORM_HOME=/usr/app/apache-storm-1.2.2
export PATH=$STORM_HOME/bin:$PATH
使得配置的环境变量生效:
# source /etc/profile
3. 集群配置
修改${STORM_HOME}/conf/storm.yaml
文件,配置如下:
# Zookeeper集群的主机列表
storm.zookeeper.servers:
- "hadoop001"
- "hadoop002"
- "hadoop003"
# Nimbus的节点列表
nimbus.seeds: ["hadoop001"]
# Nimbus和Supervisor需要使用本地磁盘上来存储少量状态(如jar包,配置文件等)
storm.local.dir: "/home/storm"
# workers进程的端口,每个worker进程会使用一个端口来接收消息
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
supervisor.slots.ports
参数用来配置workers进程接收消息的端口,默认每个supervisor节点上会启动4个worker,当然你也可以按照自己的需要和服务器性能进行设置,假设只想启动2个worker的话,此处配置2个端口即可。
4. 安装包分发
将Storm的安装包分发到其他服务器,分发后建议在这两台服务器上也配置一下Storm的环境变量。
scp -r /usr/app/apache-storm-1.2.2/ root@hadoop002:/usr/app/
scp -r /usr/app/apache-storm-1.2.2/ root@hadoop003:/usr/app/
四. 启动集群
4.1 启动ZooKeeper集群
分别到三台服务器上启动ZooKeeper服务:
zkServer.sh start
4.2 启动Storm集群
因为要启动多个进程,所以统一采用后台进程的方式启动。进入到${STORM_HOME}/bin
目录下,执行下面的命令:
hadoop001 :
因为hadoop001是nimbus
节点,所以需要启动nimbus
服务和ui
服务;同时hadoop001也是supervisor
节点,所以需要启动supervisor
服务和logviewer
服务:
# 启动主节点 nimbus
nohup sh storm nimbus &
# 启动从节点 supervisor
nohup sh storm supervisor &
# 启动UI界面 ui
nohup sh storm ui &
# 启动日志查看服务 logviewer
nohup sh storm logviewer &
hadoop002 & hadoop003 :
hadoop002和hadoop003都只需要启动supervisor
服务和logviewer
服务:
# 启动从节点 supervisor
nohup sh storm supervisor &
# 启动日志查看服务 logviewer
nohup sh storm logviewer &
4.3 查看集群
使用jps
查看进程,三台服务器的进程应该分别如下:

访问hadoop001的8080
端口,界面应如下图,可以看到有1个Nimbus
和3个Supervisor
,并且每个Supervisor
有四个slots
,即四个可用的worker
进程,此时代表集群已经搭建成功。
