learn-tech/专栏/周志明的架构课/66_基于Istio的服务网格架构.md
2024-10-16 06:37:41 +08:00

149 lines
12 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

因收到Google相关通知网站将会择期关闭。相关通知内容
66 _ 基于Istio的服务网格架构
你好,我是周志明。
当软件架构演进到基于Kubernetes实现的微服务时已经能够相当充分地享受到虚拟化技术发展的红利比如应用能够灵活地扩容缩容、不再畏惧单个服务的崩溃消亡、立足应用系统更高层来管理和编排各服务之间的版本、交互。
可是单纯的Kubernetes仍然不能解决我们面临的所有分布式技术问题。
在上一讲针对基于Kubernetes架构中的“技术组件”的介绍里我已经说过光靠着Kubernetes本身的虚拟化基础设施很难做到精细化的服务治理比如熔断、流控、观测等等而即使是那些它可以提供支持的分布式能力比如通过DNS服务来实现的服务发现与负载均衡也只能说是初步解决了分布式中如何调用服务的问题而已只靠DNS其实很难满足根据不同的配置规则、协议层次、均衡算法等去调节负载均衡的执行过程这类高级的配置需求。
Kubernetes提供的虚拟化基础设施是我们尝试从应用中剥离分布式技术代码踏出的第一步但只从微服务的灵活与可控这一点来说基于Kubernetes实现的版本其实比上一个Spring Cloud版本里用代码实现的效果功能强大、灵活程度有所倒退这也是当时我们没有放弃Hystrix、Spring Security OAuth 2.0等组件的原因。
所以说Kubernetes给予了我们强大的虚拟化基础设施这是一把好用的锤子但我们却不必把所有问题都看作钉子不必只局限于纯粹基础设施的解决方案。
现在基于Kubernetes之上构筑的服务网格Service Mesh是目前最先进的架构风格也就是通过中间人流量劫持的方式以介乎于应用和基础设施之间的边车代理Sidecar来做到既让用户代码可以专注业务需求不必关注分布式的技术又能实现几乎不亚于此前Spring Cloud时代的那种通过代码来解决分布式问题的可配置、安全和可观测性。
而这个目标现在已经成为了最热门的服务网格框架Istio的SloganConnect, Secure, Control, And Observe Services。
需求场景
得益于Kubernetes的强力支持小书店Fenixs Bookstore已经能够依赖虚拟化基础设施进行扩容缩容把用户请求分散到数量动态变化的Pod中处理可以应对相当规模的用户量了。
不过随着Kubernetes集群中的Pod数量规模越来越庞大到一定程度之后运维的同学就会无奈地表示已经不能够依靠人力来跟进微服务中出现的各种问题了一个请求在哪个服务上调用失败啦是A有调用B吗还是C调用D时出错了为什么这个请求、页面忽然卡住了怎么调度到这个Node上的服务比其他Node慢那么多这个Pod有Bug消耗了大量的TCP链接数……
而另外一方面随着Fenixs Bookstore程序规模与用户规模的壮大开发团队的人员数量也变得越来越多。尽管根据不同微服务进行拆分可以把每个服务的团队成员都控制在“2 Pizza Teams”的范围以内但一个很现实的问题是高端技术人员的数量总是有限的人多了就不可能保证每个人都是精英如何让普通的、初级的程序员依然能够做出靠谱的代码成为这一阶段技术管理者要重点思考的难题。
这时候,团队内部就出现了一种声音:微服务太复杂了,已经学不过来了,让我们回归单体吧……
所以在这样的故事背景下Fenixs Bookstore就迎来了它的下一次技术架构的演进这次的进化的目标主要有两点
目标一:实现在大规模虚拟服务下可管理、可观测的系统。
必须找到某种方法,针对应用系统整体层面,而不是针对单一微服务来连接、调度、配置和观测服务的执行情况。
此时,可视化整个系统的服务调用关系,动态配置调节服务节点的断路、重试和均衡参数,针对请求统一收集服务间的处理日志等功能,就不再是系统锦上添花的外围功能了,而是关系到系统能否正常运行、运维的必要支撑点。
目标二在代码层面裁剪技术栈深度回归单体架构中基于Spring Boot的开发模式而不是Spring Cloud或者Spring Cloud Kubernetes的技术架构。
我们并不是要去开历史的倒车,相反,我们是很贪心地希望开发重新变得简单的同时,又不能放弃现在微服务带来的一切好处。
在这个版本的Fenixs Bookstore里所有与Spring Cloud相关的技术组件比如上个版本遗留的Zuul网关、Hystrix断路器还有上个版本新引入的用于感知适配Kubernetes环境的Spring Cloud Kubernetes都将会被拆除掉。如果只观察单个微服务的技术堆栈它跟最初的单体架构几乎没有任何不同甚至还更加简单了连从单体架构开始一直保护着服务调用安全的Spring Security都移除掉了。
由于Fenixs Bookstore借用了Spring Security OAuth 2.0的密码模式做为登录服务的端点所以在Jar包层面Spring Security还是存在的但其用于安全保护的Servlet和Filter已经被关闭掉。
那么从升级目标上,我们可以明确地得到一种导向,也就是我们必须控制住服务数量膨胀后传递到运维团队的压力,只有让“每个运维人员能支持服务的数量”这个比例指标有指数级的提高,才能确保微服务下运维团队的健康运作。
而对于开发团队我们可以只要求一小部分核心的成员对微服务、Kubernetes、Istio等技术有深刻理解即可其余大部分的开发人员仍然可以基于最传统、普通的Spirng Boot技术栈来开发功能。升级改造之后的应用架构如下图所示
运行程序
在已经部署Kubernetes与Istio的前提下我们可以通过以下几种途径运行程序来浏览最终的效果
在Kubernetes无Sidecar状态下运行
在业务逻辑的开发过程中或者其他不需要双向TLS、不需要认证授权支持、不需要可观测性支持等非功能性能力增强的环境里可以不启动Envoy但还是要安装Istio的因为用到了Istio Ingress Gateway工程在编译时已经通过Kustomize产生出集成式的资源描述文件
# Kubernetes without Envoy资源描述文件
$ kubectl apply -f https://raw.githubusercontent.com/fenixsoft/servicemesh_arch_istio/master/bookstore-dev.yml
请注意资源文件中对Istio Ingress Gateway的设置是针对Istio默认安装编写的即以istio-ingressgateway作为标签以LoadBalancer形式对外开放80端口对内监听8080端口。在部署时可能需要根据实际情况进行调整你可以观察以下命令的输出结果来确认这一点
$ kubectl get svc istio-ingressgateway -nistio-system -o yaml
然后在浏览器访问http://localhost系统预置了一个用户user:icyfenixpw:123456你也可以注册新用户来测试。
在Istio服务网格环境上运行
工程在编译时已经通过Kustomize产生出集成式的资源描述文件你可以通过该文件直接在Kubernetes with Envoy集群中运行程序
# Kubernetes with Envoy 资源描述文件
$ kubectl apply -f https://raw.githubusercontent.com/fenixsoft/servicemesh_arch_istio/master/bookstore.yml
当所有的Pod都处于正常工作状态后这个过程一共需要下载几百MB的镜像尤其是Docker中没有各层基础镜像缓存时请根据自己的网速保持一定的耐心。未来GraalVM对Spring Cloud的支持更成熟一些后可以考虑采用GraalVM来改善这一点在浏览器访问http://localhost系统预置了一个用户user:icyfenixpw:123456你也可以注册新用户来测试。
通过Skaffold在命令行或IDE中以调试方式运行
这个运行方式与上一讲调试Kubernetes服务是完全一致的。它是在本地针对单个服务编码、调试完成后通过CI/CD流水线部署到Kubernetes中进行集成的。不过如果只是针对集成测试这并没有什么问题但同样的做法应用在开发阶段就非常不方便了我们不希望每做一处修改都要经过一次CI/CD流程这会非常耗时而且难以调试。
Skaffold是Google在2018年开源的一款加速应用在本地或远程Kubernetes集群中构建、推送、部署和调试的自动化命令行工具。对于Java应用来说它可以帮助我们做到监视代码变动自动打包出镜像将镜像打上动态标签并更新部署到Kubernetes集群为Java程序注入开放JDWP调试的参数并根据Kubernetes的服务端口自动在本地生成端口转发。
以上都是根据skaffold.yml中的配置来进行的开发时skaffold通过dev指令来执行这些配置具体的操作过程如下所示
# 克隆获取源码
$ git clone https://github.com/fenixsoft/servicemesh_arch_istio.git && cd servicemesh_arch_istio
# 编译打包
$ ./mvnw package
# 启动Skaffold
# 此时将会自动打包Docker镜像并部署到Kubernetes中
$ skaffold dev
服务全部启动后你可以在浏览器访问http://localhost系统预置了一个用户user:icyfenixpw:123456你也可以注册新用户来测试。注意这里开放和监听的端口同样取决于Istio Ingress Gateway你可能需要根据系统环境来进行调整。
调整代理自动注入:
项目提供的资源文件中默认是允许边车代理自动注入到Pod中的而这会导致服务需要有额外的容器初始化过程。开发期间我们可能需要关闭自动注入以提升容器频繁改动、重新部署时的效率。如果需要关闭代理自动注入请自行调整bookstore-kubernetes-manifests目录下的bookstore-namespaces.yaml资源文件根据需要将istio-injection修改为enable或者disable。
如果关闭了边车代理就意味着你的服务丧失了访问控制以前是基于Spring Security实现的在Istio版本中这些代码已经被移除、断路器、服务网格可视化等一系列依靠Envoy代理所提供能力。但这些能力是纯技术的与业务无关并不影响业务功能正常使用所以在本地开发、调试期间关闭代理是可以考虑的。
技术组件
Fenixs Bookstore采用基于Istio的服务网格架构其中主要的技术组件包括
配置中心通过Kubernetes的ConfigMap来管理。
服务发现通过Kubernetes的Service来管理由于已经不再引入Spring Cloud Feign了所以在OpenFeign中我们直接使用短服务名进行访问。
负载均衡未注入边车代理时依赖KubeDNS实现基础的负载均衡一旦有了Envoy的支持就可以配置丰富的代理规则和策略。
服务网关依靠Istio Ingress Gateway来实现这里已经移除了Kubernetes版本中保留的Zuul网关。
服务容错依靠Envoy来实现这里已经移除了Kubernetes版本中保留的Hystrix。
认证授权依靠Istio的安全机制来实现这里实质上已经不再依赖Spring Security进行ACL控制但Spring Security OAuth 2.0仍然以第三方JWT授权中心的角色存在为系统提供终端用户认证为服务网格提供令牌生成、公钥JWKS等支持。
协议
课程的工程代码部分采用Apache 2.0协议进行许可。在遵循许可的前提下,你可以自由地对代码进行修改、再发布,也可以将代码用作商业用途。但要求你:
署名:在原有代码和衍生代码中,保留原作者署名及代码来源信息;
保留许可证在原有代码和衍生代码中保留Apache 2.0协议文件。