learn-tech/专栏/Kubernetes入门实战课/17更真实的云原生:实际搭建多节点的Kubernetes集群.md
2024-10-16 06:37:41 +08:00

343 lines
17 KiB
Markdown
Raw Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

因收到Google相关通知网站将会择期关闭。相关通知内容
17 更真实的云原生实际搭建多节点的Kubernetes集群
你好我是Chrono。
到今天你学习这个专栏的进度就已经过半了在前面的“入门篇”我们了解了Docker和容器技术在“初级篇”我们掌握了Kubernetes的基本对象、原理和操作方法一路走下来收获很多。
现在你应该对Kubernetes和容器编排有了一些初步的认识那么接下来让我们继续深入研究Kubernetes的其他API对象也就是那些在Docker中不存在的但对云计算、集群管理至关重要的概念。
不过在那之前我们还需要有一个比minikube更真实的Kubernetes环境它应该是一个多节点的Kubernetes集群这样更贴近现实中的生产系统能够让我们尽快地拥有实际的集群使用经验。
所以在今天的这节课里我们就来暂时忘掉minikube改用kubeadmhttps://kubernetes.io/zh/docs/reference/setup-tools/kubeadm/搭建出一个新的Kubernetes集群一起来看看更真实的云原生环境。
什么是kubeadm
前面的几节课里我们使用的都是minikube它非常简单易用不需要什么配置工作就能够在单机环境里创建出一个功能完善的Kubernetes集群给学习、开发、测试都带来了极大的便利。
不过minikube还是太“迷你”了方便的同时也隐藏了很多细节离真正生产环境里的计算集群有一些差距毕竟许多需求、任务只有在多节点的大集群里才能够遇到相比起来minikube真的只能算是一个“玩具”。
那么多节点的Kubernetes集群是怎么从无到有地创建出来的呢
[第10讲]说过Kubernetes是很多模块构成的而实现核心功能的组件像apiserver、etcd、scheduler等本质上都是可执行文件所以也可以采用和其他系统差不多的方式使用Shell脚本或者Ansible等工具打包发布到服务器上。
不过Kubernetes里的这些组件的配置和相互关系实在是太复杂了用Shell、Ansible来部署的难度很高需要具有相当专业的运维管理知识才能配置、搭建好集群而且即使这样搭建的过程也非常麻烦。
为了简化Kubernetes的部署工作让它能够更“接地气”社区里就出现了一个专门用来在集群中安装Kubernetes的工具名字就叫“kubeadm”意思就是“Kubernetes管理员”。
kubeadm原理和minikube类似也是用容器和镜像来封装Kubernetes的各种组件但它的目标不是单机部署而是要能够轻松地在集群环境里部署Kubernetes并且让这个集群接近甚至达到生产级质量。
而在保持这个高水准的同时kubeadm还具有了和minikube一样的易用性只要很少的几条命令如 init、join、upgrade、reset 就能够完成Kubernetes集群的管理维护工作这让它不仅适用于集群管理员也适用于开发、测试人员。
实验环境的架构是什么样的
在使用kubeadm搭建实验环境之前我们先来看看集群的架构设计也就是说要准备好集群所需的硬件设施。
这里我画了一张系统架构图图里一共有3台主机当然它们都是使用虚拟机软件VirtualBox/VMWare虚拟出来的下面我来详细说明一下
所谓的多节点集群要求服务器应该有两台或者更多为了简化我们只取最小值所以这个Kubernetes集群就只有两台主机一台是Master节点另一台是Worker节点。当然在完全掌握了kubeadm的用法之后你可以在这个集群里添加更多的节点。
Master节点需要运行apiserver、etcd、scheduler、controller-manager等组件管理整个集群所以对配置要求比较高至少是2核CPU、4GB的内存。
而Worker节点没有管理工作只运行业务应用所以配置可以低一些为了节省资源我给它分配了1核CPU和1GB的内存可以说是低到不能再低了。
基于模拟生产环境的考虑在Kubernetes集群之外还需要有一台起辅助作用的服务器。
它的名字叫Console意思是控制台我们要在上面安装命令行工具kubectl所有对Kubernetes集群的管理命令都是从这台主机发出去的。这也比较符合实际情况因为安全的原因集群里的主机部署好之后应该尽量少直接登录上去操作。
要提醒你的是Console这台主机只是逻辑上的概念不一定要是独立你在实际安装部署的时候完全可以复用之前minikube的虚拟机或者直接使用Master/Worker节点作为控制台。
这3台主机共同组成了我们的实验环境所以在配置的时候要注意它们的网络选项必须是在同一个网段你可以再回顾一下[课前准备]保证它们使用的是同一个“Host-Only”VirtualBox或者“自定”VMWare Fusion网络。
安装前的准备工作
不过有了架构图里的这些主机之后我们还不能立即开始使用kubeadm安装Kubernetes因为Kubernetes对系统有一些特殊要求我们必须还要在Master和Worker节点上做一些准备。
这些工作的详细信息你都可以在Kubernetes的官网上找到但它们分散在不同的文档里比较凌乱所以我把它们整合到了这里包括改主机名、改Docker配置、改网络设置、改交换分区这四步。
第一由于Kubernetes使用主机名来区分集群里的节点所以每个节点的hostname必须不能重名。你需要修改“/etc/hostname”这个文件把它改成容易辨识的名字比如Master节点就叫 masterWorker节点就叫 worker
sudo vi /etc/hostname
第二虽然Kubernetes目前支持多种容器运行时但Docker还是最方便最易用的一种所以我们仍然继续使用Docker作为Kubernetes的底层支持使用 apt 安装Docker Engine可参考[第1讲])。
安装完成后需要你再对Docker的配置做一点修改在“/etc/docker/daemon.json”里把cgroup的驱动程序改成 systemd 然后重启Docker的守护进程具体的操作我列在了下面
cat <<EOF | sudo tee /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
},
"storage-driver": "overlay2"
}
EOF
sudo systemctl enable docker
sudo systemctl daemon-reload
sudo systemctl restart docker
第三为了让Kubernetes能够检查转发网络流量你需要修改iptables的配置启用br_netfilter模块
cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward=1 # better than modify /etc/sysctl.conf
EOF
sudo sysctl --system
第四你需要修改“/etc/fstab”,关闭Linux的swap分区提升Kubernetes的性能
sudo swapoff -a
sudo sed -ri '/\sswap\s/s/^#?/#/' /etc/fstab
完成之后最好记得重启一下系统然后给虚拟机拍个快照做备份避免后续的操作失误导致重复劳动
安装kubeadm
现在我们就要安装kubeadm了在Master节点和Worker节点上都要做这一步
kubeadm可以直接从Google自己的软件仓库下载安装但国内的网络不稳定很难下载成功需要改用其他的软件源这里我选择了国内的某云厂商
sudo apt install -y apt-transport-https ca-certificates curl
curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | sudo apt-key add -
cat <<EOF | sudo tee /etc/apt/sources.list.d/kubernetes.list
deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main
EOF
sudo apt update
更新了软件仓库我们就可以用 apt install 获取kubeadmkubelet和kubectl这三个安装必备工具了apt默认会下载最新版本但我们也可以指定版本号比如使用和minikube相同的1.23.3”:
sudo apt install -y kubeadm=1.23.3-00 kubelet=1.23.3-00 kubectl=1.23.3-00
安装完成之后你可以用 kubeadm versionkubectl version 来验证版本是否正确
kubeadm version
kubectl version --client
另外按照Kubernetes官网的要求我们最好再使用命令 apt-mark hold 锁定这三个软件的版本避免意外升级导致版本错误
sudo apt-mark hold kubeadm kubelet kubectl
下载Kubernetes组件镜像
前面我说过kubeadm把apiserveretcdscheduler等组件都打包成了镜像以容器的方式启动Kubernetes但这些镜像不是放在Docker Hub上而是放在Google自己的镜像仓库网站gcr.io而它在国内的访问很困难直接拉取镜像几乎是不可能的
所以我们需要采取一些变通措施提前把镜像下载到本地
使用命令 kubeadm config images list 可以查看安装Kubernetes所需的镜像列表参数 --kubernetes-version 可以指定版本号
kubeadm config images list --kubernetes-version v1.23.3
k8s.gcr.io/kube-apiserver:v1.23.3
k8s.gcr.io/kube-controller-manager:v1.23.3
k8s.gcr.io/kube-scheduler:v1.23.3
k8s.gcr.io/kube-proxy:v1.23.3
k8s.gcr.io/pause:3.6
k8s.gcr.io/etcd:3.5.1-0
k8s.gcr.io/coredns/coredns:v1.8.6
知道了镜像的名字和标签就好办了我们有两种方法可以比较容易地获取这些镜像
第一种方法是利用minikube因为minikube本身也打包了Kubernetes的组件镜像所以完全可以从它的节点里把这些镜像导出之后再拷贝过来
具体做法也很简单先启动minikube然后 minikube ssh 登录进虚拟节点 docker save -o 命令把相应版本的镜像都保存下来再用 minikube cp 拷贝到本地剩下的事情就不用我多说了
这种方法安全可靠不过操作上麻烦了些所以就有了第二种方法从国内的镜像网站下载然后再用 docker tag 改名能够使用Shell编程实现自动化
repo=registry.aliyuncs.com/google_containers
for name in `kubeadm config images list --kubernetes-version v1.23.3`; do
src_name=${name#k8s.gcr.io/}
src_name=${src_name#coredns/}
docker pull $repo/$src_name
docker tag $repo/$src_name $name
docker rmi $repo/$src_name
done
第二种方法速度快但也有隐患万一网站不提供服务或者改动了镜像就比较危险了
所以你可以把这两种方法结合起来先用脚本从国内镜像仓库下载然后再用minikube里的镜像做对比只要IMAGE ID是一样就说明镜像是正确的
这张截图就是Kubernetes 1.23.3的镜像列表amd64/arm64你在安装时可以参考
安装Master节点
准备工作都做好了现在就可以开始正式安装Kubernetes了我们先从Master节点开始
kubeadm的用法非常简单只需要一个命令 kubeadm init 就可以把组件在Master节点上运行起来不过它还有很多参数用来调整集群的配置你可以用 -h 查看这里我只说一下我们实验环境用到的3个参数
--pod-network-cidr设置集群里Pod的IP地址段
--apiserver-advertise-address设置apiserver的IP地址对于多网卡服务器来说很重要比如VirtualBox虚拟机就用了两块网卡可以指定apiserver在哪个网卡上对外提供服务
--kubernetes-version指定Kubernetes的版本号
下面的这个安装命令里我指定了Pod的地址段是10.10.0.0/16”,apiserver的服务地址是192.168.10.210”,Kubernetes的版本号是1.23.3”:
sudo kubeadm init \
--pod-network-cidr=10.10.0.0/16 \
--apiserver-advertise-address=192.168.10.210 \
--kubernetes-version=v1.23.3
因为我们已经提前把镜像下载到了本地所以kubeadm的安装过程很快就完成了它还会提示出接下来要做的工作
To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
意思是要在本地建立一个“.kube目录然后拷贝kubectl的配置文件你只要原样拷贝粘贴就行
另外还有一个很重要的kubeadm join提示其他节点要加入集群必须要用指令里的token和ca证书所以这条命令务必拷贝后保存好
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.10.210:6443 --token tv9mkx.tw7it9vphe158e74 \
--discovery-token-ca-cert-hash sha256:e8721b8630d5b562e23c010c70559a6d3084f629abad6a2920e87855f8fb96f3
安装完成后你就可以使用 kubectl versionkubectl get node 来检查Kubernetes的版本和集群的节点状态了
kubectl version
kubectl get node
你会注意到Master节点的状态是NotReady”,这是由于还缺少网络插件集群的内部网络还没有正常运作
安装Flannel网络插件
Kubernetes定义了CNI标准有很多网络插件这里我选择最常用的Flannel可以在它的GitHub仓库里https://github.com/flannel-io/flannel/找到相关文档
它安装也很简单只需要使用项目的kube-flannel.yml在Kubernetes里部署一下就好了不过因为它应用了Kubernetes的网段地址你需要修改文件里的net-conf.json字段 Network 改成刚才kubeadm的参数 --pod-network-cidr 设置的地址段
比如在这里就要修改成10.10.0.0/16”:
net-conf.json: |
{
"Network": "10.10.0.0/16",
"Backend": {
"Type": "vxlan"
}
}
改好后你就可以用 kubectl apply 来安装Flannel网络了
kubectl apply -f kube-flannel.yml
稍等一小会等镜像拉取下来并运行之后你就可以执行 kubectl get node 来看节点状态
kubectl get node
这时你应该能够看到Master节点的状态是Ready”,表明节点网络也工作正常了
安装Worker节点
如果你成功安装了Master节点那么Worker节点的安装就简单多了只需要用之前拷贝的那条 kubeadm join 命令就可以了记得要用 sudo 来执行
sudo \
kubeadm join 192.168.10.210:6443 --token tv9mkx.tw7it9vphe158e74 \
--discovery-token-ca-cert-hash sha256:e8721b8630d5b562e23c010c70559a6d3084f629abad6a2920e87855f8fb96f3
它会连接Master节点然后拉取镜像安装网络插件最后把节点加入集群
当然这个过程中同样也会遇到拉取镜像的问题你可以如法炮制提前把镜像下载到Worker节点本地这样安装过程中就不会再有障碍了
Worker节点安装完毕后执行 kubectl get node 就会看到两个节点都是Ready状态
现在让我们用 kubectl run 运行Nginx来测试一下
kubectl run ngx --image=nginx:alpine
kubectl get pod -o wide
会看到Pod运行在Worker节点上IP地址是10.10.1.2”,表明我们的Kubernetes集群部署成功
小结
好了把Master节点和Worker节点都安装好我们今天的任务就算是基本完成了
后面Console节点的部署工作更加简单它只需要安装一个kubectl然后复制config文件就行你可以直接在Master节点上用scp远程拷贝例如
scp `which kubectl` [email protected]:~/
scp ~/.kube/config [email protected]:~/.kube
今天的过程多一些要点我列在了下面
kubeadm是一个方便易用的Kubernetes工具能够部署生产级别的Kubernetes集群
安装Kubernetes之前需要修改主机的配置包括主机名Docker配置网络设置交换分区等
Kubernetes的组件镜像存放在gcr.io国内下载比较麻烦可以考虑从minikube或者国内镜像网站获取
安装Master节点需要使用命令 kubeadm init安装Worker节点需要使用命令 kubeadm join还要部署Flannel等网络插件才能让集群正常工作
因为这些操作都是各种Linux命令全手动敲下来确实很繁琐所以我把这些步骤都做成了Shell脚本放在了GitHub上https://github.com/chronolaw/k8s_study/tree/master/admin你可以下载后直接运行
课下作业
最后的课下作业是实际动手操作请你多花费一些时间用虚拟机创建出集群节点再用kubeadm部署出这个多节点的Kubernetes环境在接下来的中级篇高级篇里我们就会在这个Kubernetes集群里做实验
安装部署过程中有任何疑问欢迎在留言区留言我会第一时间回复你如果觉得有帮助也欢迎分享给自己身边的朋友一起学习下节课见