first commit

This commit is contained in:
张乾
2024-10-16 06:37:41 +08:00
parent 633f45ea20
commit 206fad82a2
3590 changed files with 680090 additions and 0 deletions

View File

@ -0,0 +1,444 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
23 视频:中级篇实操总结
你好我是Chrono。
到今天我们“中级篇”的学习也告一段落了在这段时间里我们使用kubeadm搭建了更接近生产环境的多节点Kubernetes集群然后学习了Deployment、DaemonSet、Service、Ingress这4个非常重要的API对象。
这节课作为对“中级篇”的总结和回顾,仍然是视频的形式,把前面几节课里的一些操作都实际演示出来,方便你对照着操作上下文来学习。
首先我会带你看看kubeadm搭建集群的完整过程然后编写YAML文件示范Deployment、DaemonSet、Service、Ingress等对象的具体用法最后是使用这些对象搭建WordPress网站。
让我们开始视频课程的学习吧。
一点说明:视频是我的操作实录,有些包安装比较慢,屏幕会几秒没有动作,在参考视频以及你自己操作的时候可以耐心一些。
一. 安装kubeadm
我们先来安装Master节点当然在这之前你需要保证已经安装好了Docker安装参考[第1讲])。
首先四步准备工作改主机名、改Docker配置、改网络设置、改交换分区。
修改主机名,把它改成 master
sudo vi /etc/hostname
修改Docker的配置文件把cgroup的驱动程序改成 systemd然后是修改iptables的配置启用 br_netfilter 模块,还有修改“/etc/fstab”关闭Linux的swap分区。
这些操作步骤都已经列在了[第17讲]里了,因为一个个文件修改很麻烦,我就写了一个脚本文件,把这些操作都自动化了,大概看一下:
vi prepare.sh
第一部分是修改Docker配置文件然后重启第二部分是修改iptables配置第三部分是关闭Linux的swap分区。我们执行这个脚本安装的准备工作就做好了。
接下来下载kubeadm可执行文件同样我也写成了一个方便的脚本文件
vi admin.sh
基本流程和Kubernetes官方文档是一样的只是改成了国内的软件源。
注意在使用 apt install 的时候应该明确指定要安装的版本号像这里我就使用的是Kubernetes 1.23.3如果不指定就会使用当前的最新版本也就是1.24。
安装完成之后,我们用 kubeadm version、kubectl version 来看一下版本是否正确:
kubeadm version
kubectl version --client
可以看到确实是安装了我们刚才指定的1.23.3版本。
二. 安装Kubernetes
有了kubeadm我们就可以开始正式安装Kubernetes了。安装时需要从gcr.io拉取镜像我这里从国内镜像网站上提前下载好了镜像给你看一下
docker images
这些镜像中包括Kubernetes的核心组件比如etcd、apiserver、controller-manager。
现在我们来执行 kubeadm init 初始化Master节点看一下脚本文件
vi master.sh
初始化的时候我使用了参数 pod-network-cidr 指定Pod的IP地址范围是“10.10.0.0/16”然后Kubernetes版本也指定使用1.23.3。
为了让kubectl在安装完成后能正常工作脚本里还会把Kubernetes的配置文件拷贝到当前用户的 .kube 目录下。
好了,现在我们就运行这个脚本。
注意Master节点初始化完成后kubeadm会给出一些重要的提示信息一个是拷贝配置文件这个我们已经在脚本里做过了另一个是Worker节点加入集群的 kubeadm join 命令一定要保存好。我们可以新建一个文件比如k.txt然后把它存下来。
我们再用 kubectl version、kubectl get node 来检查Kubernetes的版本和集群的节点状态了
kubectl version
kubectl get node
Master节点的状态是“NotReady”接下来还要安装网络插件Flannel。
Flannel的安装很简单记得要修改它的YAML文件“net-conf.json”里的网络范围必须和 kubeadm init 里的一样:
vi flannel.yml
现在我们用 kubectl apply 来安装Flannel网络
kubectl apply -f kube-flannel.yml
稍等一小会,我们再执行 kubectl get node 来看节点状态:
kubectl get node
就看到Master节点的状态是“Ready”表明节点网络也工作正常了。
三. Kubernetes集群部署
Worker节点的安装步骤和Master节点是差不多的先是改主机名再用prepare.sh做准备工作修改Docker配置文件、iptables关闭Linux的swap分区然后下载kubeadm可执行文件和Kubernetes镜像。
这几步和Master节点完全一样我就不展示脚本文件了直接运行。
有了kubeadm之后因为这个是Worker节点所以我们不需要执行 kubeadm init而是要执行 kubeadm join也就是之前安装Master节点时拷贝的那条命令。它会自动连接Master节点然后拉取镜像安装网络插件最后把节点加入集群。
Worker节点安装好之后让我们在控制台检查节点的状态执行 kubectl get node会看到两个节点都是“Ready”。
现在让我们用 kubectl run运行Nginx来测试一下
kubectl run ngx --image=nginx:alpine
kubectl get pod -o wide
会看到Pod运行在Worker节点上表明我们的Kubernetes多节点集群部署成功。
四. Deployment的使用
接下来我们来看看Deployment的用法。
首先是 kubectl api-resources 来查看Deployment的基本信息
kubectl api-resources | grep deploy
可以看到Deployment的简称是“deploy”它的apiVersion是“apps/v1”kind是“Deployment”。
然后我们执行 kubectl create让Kubernetes为我们自动生成Deployment的样板文件。
先要定义一个环境变量out:
export out="--dry-run=client -o yaml"
然后创建名字叫“ngx-dep”的对象使用的镜像是“nginx:alpine”
kubectl create deploy ngx-dep --image=nginx:alpine $out
我们把这个样板存入一个文件ngx.yml
kubectl create deploy ngx-dep --image=nginx:alpine $out > deploy.yml
这里可以删除一些不需要的字段让YAML看起来更干净然后把replicas改成2意思是启动两个Nginx Pod。
把Deployment的YAML写好之后我们就可以用 kubectl apply 来创建对象了:
kubectl apply -f deploy.yml
用 kubectl get 命令查看Deployment的状态
kubectl get deploy
kubectl get pod
最后来试验一下Deployment的应用伸缩功能使用命令 kubectl scale把Pod数量改成5个
kubectl scale --replicas=5 deploy ngx-dep
我们再用 kubectl get 命令查看就会发现Pod已经成功变成了5个副本
kubectl get pod
最后删除这个Deployment
kubectl delete deploy ngx-dep
五. DaemonSet的使用
看完Deployment我再来演示DaemonSet。
因为DaemonSet不能使用 kubectl create 直接生成样板文件但大体结构和Deployment是一样的所以我们可以先生成一个Deployment然后再修改几个字段就行了。
这里我使用了Linux系统里常用的小工具sed直接替换Deployment里的名字再删除replicas字段这样就自动生成了DaemonSet的样板文件
kubectl create deploy redis-ds --image=redis:5-alpine $out \
| sed 's/Deployment/DaemonSet/g' - \
| sed -e '/replicas/d' -
这个样板文件因为是从Deployment改来的所以不会有tolerations字段不能在Master节点上运行需要手工添加。
下面这个就是已经改好的完整的DaemonSet YAML描述文件
vi ds.yml
注意看里面的tolerations字段它能够容忍节点的 node-role.kubernetes.io/master:NoSchedule 这个污点也就是说能够运行在Master节点上。
现在让我们部署这个加上了“容忍度”的DaemonSet
kubectl apply -f ds.yml
再用 kubectl get 查看对象的状态:
kubectl get ds
kubectl get pod -o wide
可以看到这个Redis 的DaemonSet已经跑在了Master和Worker节点上。
最后删除这个DaemonSet
kubectl delete -f ds.yml
六. Service的使用
下面我们来看看Kubernetes里的负载均衡对象Service。
因为Service对象服务于Pod、Deployment等对象所以在创建它之前我们需要先创建一个Deployment
kubectl apply -f deploy.yml
这个Deployment管理了两个Nginx Pod
kubectl get pod -o wide
然后我们我们使用 kubectl expose 创建Service样板文件
kubectl expose deploy ngx-dep --port=80 --target-port=80 $out
修改之后就是svc.yml再用 kubectl apply 创建Service对象
kubectl apply -f svc.yml
用 kubectl get svc 可以列出Service对象可以看到它的虚IP地址
kubectl get svc
想要看Service代理了哪些后端的Pod要用 kubectl describe 命令:
kubectl describe svc ngx-svc
用 kubectl get pod 可以对比验证Service是否正确代理了Nginx Pod
kubectl get pod -o wide
现在让我们用 kubectl exec 进入Pod验证Service的域名功能
kubectl exec -it ngx-dep-6796688696-4h6lb -- sh
使用curl加上域名“ngx-svc”也就是Service对象的名字
curl ngx-svc
多执行几次就会看到通过这个域名Service对象实现了对后端Pod的负载均衡把流量分发到不同的Pod。
我们还可以再尝试Service的其他域名形式比如加上名字空间
curl ngx-svc.default
curl ngx-svc.default.svc.cluster.local
最后看一下Service使用NodePort方式对外暴露服务的用法看一下Service对象
kubectl get svc
在PORT里显示它分配了一个随机的端口号31980只要访问集群里任意一个节点加上这个端口号就可以访问到Service对象和它后面的Pod。
我们来试验一下注意210是Master节点220是Worker节点
curl 192.168.10.210:31980
curl 192.168.10.220:31980
最后删除Deployment和Service对象
kubectl delete -f deploy.yml
kubectl delete -f svc.yml
七. Ingress的使用
学习了Service之后我们再来看管理集群入口流量的Ingress对象。
我们使用Nginx公司开发的Ingress Controller需要按照它的文档创建名字空间、RBAC等相关的资源这里我使用一个简单脚本来完成
cat setup.sh
./setup.sh
使用命令 kubectl get ns 可以看到已经有了一个新的名字空间 nginx-ingress。
为了测试验证Ingress和Ingress controller的用法我们还是要先创建Deployment和Service对象
kubectl apply -f deploy.yml
kubectl apply -f svc.yml
来看一下Ingress的定义
vi ingress.yml
这个YAML里包含了两个API对象第一个是Ingress Class名字是ngx-ink注意在spec里controller要指定成Nginx Ingress Controller。
第二个对象就是路由规则对象Ingress了我为它添加了一个注解nginx.org/lb-method指定使用Round-Robin负载均衡算法然后是关键字段ingressClassName这样就可以把Ingress和Ingress Class联系起来。
后面的rules就是具体的路由规则比较复杂要指定host、path还有后端要转发的Service最好用kubectl create来自动生成不然很容易写错。
接下来我们看看Ingress Controller的定义它在kic YAML 里:
vi kic.yml
它其实是从Nginx官方的示例文件修改而来的所以只需要关注几个地方。
第一个是镜像我改成了更精简的Alpine版本第二个是启动参数args一定要加上-ingress-class关联上刚才的Ingress Class对象否则Ingress Controller就无法找到路由规则Ingress。
它后面还有几个参数,比如-health-status、-ready-status等等你可以参考官方文档了解它们的作用。
现在我们就应用这两个YAML 文件创建Ingress对象
kubectl apply -f ingress.yml
kubectl apply -f kic.yml
用 kubectl get 来逐个查看这些对象的状态:
kubectl get ingressclass
kubectl get ing
kubectl describe ing ngx-ing
kubectl get deploy -n nginx-ingress
kubectl get pod -n nginx-ingress
确认它们都工作正常我们来做个测试把本地的8080端口映射到Ingress Controller Pod的80端口
kubectl port-forward -n nginx-ingress ngx-kic-dep-8859b7b86-cplgp 8080:80 &
因为在Ingress里我们设定的路由规则是ngx.test域名所以要用curl的resolve参数来把它强制解析到127.0.0.1
curl --resolve ngx.test:8080:127.0.0.1 http://ngx.test:8080
多执行几次你就会发现Nginx Ingress Controller通过域名路由规则把请求转发到了不同的后端Pod。
最后我们删除刚才创建的这些Deployment、Service、Ingress等对象
kubectl delete -f deploy.yml
kubectl delete -f svc.yml
kubectl delete -f ingress.yml
kubectl delete -f kic.yml
八. 搭建WordPress网站
这里我们还是来搭建WordPress网站实际操作Deployment、Service、Ingress这些对象的用法。
第一步是部署MariaDB
wp-maria.yml
它的ConfigMap没有变化还是“DATABASE”“USER”“PASSWORD”那几个环境变量。下面的部署方式改成了Deployment简单起见只使用一个实例。之后又为它定义了一个Service对象这样我们就可以使用域名而不是IP地址来访问数据库。
第二步是部署WordPress应用
vi wp-dep.yml
注意在ConfigMap里我们不再使用固定IP地址了而是改用了Service提供的域名maria-svc。然后在Deployment里把WordPress实例设置为2增加了冗余度提高了可用性。之后我们还是为它定义了Service对象并且设置为NodePort模式指定使用端口30088。
第三步是部署Ingress
vi wp-ing.yml
Ingress的定义和之前差不多但Ingress Class的名字改成了wp-inkIngress路由的host改成了wp.test。
Ingress Controller的变化也不大
vi wp-kic.yml
关键还是args里的参数-ingress-class必须和Ingress Class匹配也就是wp-ink。还有就是字段hostNetwork: true让Pod直接使用节点的网络
看完了这些YAML 让我们用kubectl apply来创建对象
kubectl apply -f wp-maria.yml
kubectl apply -f wp-dep.yml
kubectl apply -f wp-ing.yml
kubectl apply -f wp-kic.yml
创建完成之后我们再用kubectl get看一下对象的状态
kubectl get deploy
kubectl get svc
kubectl get pod -n nginx-ingress
现在让我们来到集群之外假设你已经修改了本地的hosts域名解析文件把域名wp.test解析到Kubernetes的节点那就可以直接在浏览器里输入http://wp.test来访问Nginx Ingress Controller再访问WordPress网站了。
课后作业
如果你在操作过程中遇到困难,欢迎在留言区留言,记得把你的问题描述清楚,这样我和其他同学也能更好地就问题详细讨论。
希望你在这段时间的学习过程中有所收获,下节课就是最后的高级篇了,我们下节课再见。