learn-tech/专栏/周志明的架构课/35_如何在客户端实现服务的负载均衡?.md
2024-10-16 06:37:41 +08:00

17 KiB
Raw Blame History

                        因收到Google相关通知网站将会择期关闭。相关通知内容
                        
                        
                        35 _ 如何在客户端实现服务的负载均衡?
                        你好,我是周志明。这节课我们来学习客户端负载均衡的实现原理。

在正式开始讨论之前,我们先来区分清楚几个容易混淆的概念,分别是前面两讲中我介绍过的服务发现、网关路由,以及这节课要探讨的负载均衡,还有在下一讲中将会介绍的调用容错。这几个技术名词都带有“从服务集群中寻找到一个合适的服务来调用”的含义,那么它们之间的差别都体现在哪呢?下面我就通过一个具体的案例场景来给你说明一下。

理解服务发现、网关路由、负载均衡、调用容错的具体区别

假设你目前身处广东要上Fenixs Bookstore购买一本书。在程序业务逻辑里购书的其中一个关键步骤是调用商品出库服务来完成货物准备在代码中该服务的调用请求为

PATCH https://warehouse:8080/restful/stockpile/3

{amount: -1}

假设Fenixs Bookstore是个大书店在北京、武汉、广州的机房均部署有服务集群那么此时按顺序会发生以下事件

首先是将warehouse这个服务名称转换为了恰当的服务地址。

注意这里的“恰当”是个宽泛的描述一种典型的“恰当”就是因为调用请求来自于广东DNS层面的负载均衡就会优先分配给传输距离最短的广州机房来应答。

其实按常理来说这次出库服务的调用应该是集群内的流量而不是用户浏览器直接发出的请求。所以尽管结果都一样但更接近实际的情况应该是用户访问首页时已经被DNS服务器分配到了广州机房请求出库服务时应优先选择同机房的服务进行调用此时该服务的调用请求就变为

PATCH https://guangzhou-ip-wan:8080/restful/stockpile/3

然后广州机房的服务网关将该请求与配置中的特征进行比对由URL中的“/restful/stockpile/**”得知该请求访问的是商品出库服务。因此将请求的IP地址转换为内网中warehouse服务集群的入口地址

PATCH https://warehouse-gz-lan:8080/restful/stockpile/3

由于集群中部署有多个warehouse服务所以在收到调用请求后负载均衡器要在多个服务中根据某种标准或均衡策略可能是随机挑选也可能是按顺序轮询或者是选择此前调用次数最少那个等等找出要响应本次调用的服务我们称其为warehouse-gz-lan-node1。

PATCH https://warehouse-gz-lan-node1:8080/restful/stockpile/3

接着访问warehouse-gz-lan-node1服务没有返回需要的结果而是抛出了500错。

HTTP/1.1 500 Internal Server Error

那么根据预置的故障转移Failover策略负载均衡器会进行重试把调用分配给能够提供该服务的其他节点我们称其为warehouse-gz-lan-node2。

PATCH https://warehouse-gz-lan-node2:8080/restful/stockpile/3

最后warehouse-gz-lan-node2服务返回商品出库成功。

HTTP/1.1 200 OK

所以从整体上看前面步骤中的1、2、3、5就分别对应了服务发现、网关路由、负载均衡和调用容错而从细节上看其中的部分职责又是有交叉的并不是注册中心就只关心服务发现网关只关心路由均衡器只关心负载均衡。

比如步骤1服务发现的过程中“根据请求来源的物理位置来分配机房”这个操作本质上是根据请求中的特征地理位置来进行流量分发这其实是一种路由行为。在实际的系统中DNS服务器DNS智能线路、服务注册中心如Eureka等框架中的Region、Zone概念或者负载均衡器可用区负载均衡如AWS的NLB或Envoy的Region、Zone、Sub-zone里都有可能实现路由功能。

而且除此之外,你有没有感觉到这个网络调用的过程好像过于繁琐了,一个从广州机房内网发出的服务请求,绕到了网络边缘的网关、负载均衡器这些设施上,然后再被分配回内网中另外一个服务去响应。这不仅消耗了带宽,降低了性能,也增加了链路上的风险和运维的复杂度。

可是,如果流量不经过这些设施,它们相应的职责就无法发挥作用了:如果不经过负载均衡器的话,甚至连请求应该具体交给哪一个服务去处理都无法确定。

所以既然如此,我们有什么办法可以简化这个调用过程吗?这就需要用到客户端负载均衡器了。

客户端负载均衡器的工作原理

我们知道对于任何一个大型系统来说负载均衡器都是必不可少的设施。以前负载均衡器大多只部署在整个服务集群的前端将用户的请求分流到各个服务进行处理这种经典的部署形式现在被称为集中式的负载均衡在第20讲中我已经给你介绍过这种经典的负载均衡的工作原理你可以去复习一下

而随着微服务的日渐流行,服务集群收到的请求来源就不再局限于外部了,越来越多的访问请求是由集群内部的某个服务发起,由集群内部的另一个服务进行响应的。对于这类流量的负载均衡,既有的方案依然是可行的,但针对内部流量的特点,直接在服务集群内部消化掉,肯定是更合理、更受开发者青睐的办法。

由此一种全新的、独立位于每个服务前端的、分散式的负载均衡方式正逐渐变得流行起来这就是本节课我们要讨论的主角客户端负载均衡器Client-Side Load Balancer

客户端负载均衡器的理念提出以后此前的集中式负载均衡器也有了一个方便与它对比的名字“服务端负载均衡器”Server-Side Load Balancer

从上图中,你其实能够清晰地看到这两种均衡器的关键差别所在:服务端负载均衡器是集中式的,同时为多个节点提供服务,而客户端负载均衡器是和服务实例一一对应的,而且与服务实例并存于同一个进程之内。这能为它带来很多好处,比如说:

均衡器与服务之间的信息交换是进程内的方法调用,不存在任何额外的网络开销。 客户端均衡器不依赖集群边缘的设施,所有内部流量都仅在服务集群的内部循环,避免出现前面提到的,集群内部流量要“绕场一周”的尴尬局面。 分散式的均衡器意味着它天然避免了集中式的单点问题它的带宽资源将不会像集中式均衡器那样敏感这在以七层均衡器为绝对主流、不能通过IP隧道和三角传输这样的方式来节省带宽的微服务环境中显得更具优势。 客户端均衡器要更加灵活,能够针对每一个服务实例单独设置均衡策略等参数。比如访问某个服务是否需要具备亲和性,选择服务的策略是随机、轮询、加权还是最小连接,等等,都可以单独设置而不影响其他服务。 ……

但是你也要清楚,客户端均衡器并不是银弹,它的缺点同样是不少的:

它与服务运行于同一个进程之内就意味着它的选型要受到服务所使用的编程语言的限制。比如用Golang开发的微服务就不太可能搭配Spring Cloud Load Balancer来一起使用因为要为每种语言都实现对应的能够支持复杂网络情况的均衡器是非常难的。客户端均衡器的这个缺陷其实有违于微服务中技术异构不应受到限制的原则。 从个体服务来看由于客户端均衡器与服务实例是共用一个进程均衡器的稳定性会直接影响整个服务进程的稳定性而消耗的CPU、内存等资源也同样会影响到服务的可用资源。从集群整体来看在服务数量达到成千乃至上万的规模时客户端均衡器消耗的资源总量是相当可观的。 由于请求的来源可能是来自集群中任意一个服务节点,而不再是统一来自集中式均衡器,这就会导致内部网络安全和信任关系变得复杂,当入侵者攻破任何一个服务时,都会更容易通过该服务突破集群中的其他部分。 我们知道,服务集群的拓扑关系是动态的,每一个客户端均衡器必须持续跟踪其他服务的健康状况,以实现上线新服务、下线旧服务、自动剔除失败的服务、自动重连恢复的服务等均衡器必须具备的功能。由于这些操作都需要通过访问服务注册中心来完成,因此数量庞大的客户端均衡器需要一直持续轮询服务注册中心,这也会为它带来不小的负担。 ……

代理客户端负载均衡器

在Java领域客户端负载均衡器中最具代表性的产品就是Netflix Ribbon和Spring Cloud Load Balancer了随着微服务的流行它们在Java微服务中已经积聚了相当可观的使用者。

而到了最近两三年服务网格Service Mesh开始盛行另一种被称为“代理客户端负载均衡器”Proxy Client-Side Load Balancer后面就简称“代理均衡器”的客户端均衡器变体形式开始引起不同编程语言的微服务开发者的共同关注因为它解决了此前客户端均衡器的大部分缺陷。

代理均衡器对此前的客户端负载均衡器的改进,其实就是将原本嵌入在服务进程中的均衡器提取出来,放到边车代理中去实现,它的流量关系如下图所示:

这里你可以发现虽然代理均衡器与服务实例不再是进程内通讯而是通过虚拟化网络进行数据交换的数据要经过操作系统的协议栈要进行打包拆包、计算校验和、维护序列号等网络数据的收发等步骤Envoy中支持使用Unix Domain Socket来进一步避免这种消耗流量比起之前的客户端均衡器确实多经历了一次代理过程。

不过Kubernetes严格保证了同一个Pod中的容器不会跨越不同的节点相同Pod中的容器共享同一个网络和Linux UTS名称空间因此代理均衡器与服务实例的交互仍然要比真正的网络交互高效且稳定得多代价很小。但它从服务进程中分离出来的收益则是非常明显的

代理均衡器不再受编程语言的限制。比如说要发展一个支持Java、Golang、Python等所有微服务应用的通用代理均衡器就具有很高的性价比。集中不同编程语言的使用者的力量也更容易打造出能面对复杂网络情况的、高效健壮的均衡器。即使退一步说独立于服务进程的均衡器也不会因为自身的稳定性而影响到服务进程的稳定。 在服务拓扑感知方面,代理均衡器也要更有优势。由于边车代理接受控制平面的统一管理,当服务节点拓扑关系发生变化时,控制平面就会主动向边车代理发送更新服务清单的控制指令,这避免了此前客户端均衡器必须长期主动轮询服务注册中心所造成的浪费。 在安全性、可观测性上由于边车代理都是一致的实现有利于在服务间建立双向TLS通讯也有利于对整个调用链路给出更详细的统计信息。 ……

所以总体而言边车代理这种通过同一个Pod的独立容器实现的负载均衡器就是目前处理微服务集群内部流量最理想的方式。只是服务网格本身仍然是初生事物它还不够成熟对程序员的操作系统、网络和运维方面的知识要求也比较高但我们有理由相信随着时间的推移未来服务网格将会是微服务的主流通讯方式。

地域与区域

OK最后我想再和你探讨一个与负载均衡相关但又不仅仅只涉及到负载均衡的概念地域与区域。

不知道你有没有注意到在与微服务相关的许多设施中都带有Region、Zone参数比如前面我提到过的服务注册中心Eureka的Region、Zone边车代理Envoy中的Region、Zone、Sub-zone等等。如果你有云计算IaaS的使用经历你也会发现几乎所有的云计算设备都有类似的概念。

实际上Region和Zone是公有云计算先驱亚马逊AWS提出的概念我们分别来看看它们的含义。

Region是地域的意思比如华北、东北、华东、华南这些都是地域范围。

面向全球或全国的大型系统的服务集群,往往都会部署在多个不同的地域,就像是这节课开篇我设计的那个案例场景一样,它就是通过不同地域的机房,来缩短用户与服务器之间的物理距离,提升响应速度的;而对于小型系统来说,地域一般就只在异地容灾时才会涉及到。

这里你需要注意的是,不同的地域之间是没有内网连接的,所有流量都只能经过公众互联网相连,如果微服务的流量跨越了地域,实际上就跟调用外部服务商提供的互联网服务没有任何差别了。所以,集群内部流量是不会跨地域的,服务发现、负载均衡器也默认是不会支持跨地域的服务发现和负载均衡。

Zone是区域的意思它是可用区域Availability Zones的简称。区域的意思是在地理上位于同一地域内但电力和网络是互相独立的物理区域比如在华东的上海、杭州、苏州的不同机房就是同一个地域的几个可用区域。

同一个地域的区域之间具有内网连接,流量不占用公网带宽,因此区域是微服务集群内,流量能够触及的最大范围。但是,你的应用是只部署在同一区域内,还是部署到几个可用区域中,主要取决于你是否有做异地双活的需求,以及对网络延时的容忍程度。

如果你追求高可用,比如希望系统即使在某个地区发生电力或者骨干网络中断时,仍然可用,那你可以考虑将系统部署在多个区域中。这里你要注意异地容灾和异地双活的差别:容灾是非实时的同步,而双活是实时或者准实时的,跨地域或者跨区域做容灾都可以,但只能一般只能跨区域做双活,当然你也可以将它们结合起来同时使用,即“两地三中心”模式。 如果你追求低延迟比如对时间有高要求的SLA应用或者网络游戏服务器等那就应该考虑将系统部署在同一个区域中。因为尽管内网连接不受限于公网带宽但毕竟机房之间的专线容量也是有限的难以跟机房内部的交换机相比延时也会受物理距离、网络跃点等因素的影响。

当然可用区域对应于城市级别的区域范围在一些场景中仍然是过大了一些即使是同一个区域中的机房也可能存在不同的具有差异的子网络所以部分的微服务框架也提供了Group、Sub-zone等做进一步的细分控制。这些参数的意思通常是加权或优先访问同一个子区域的服务但如果子区域中没有合适的还是会访问到可用区域中的其他服务。

另外地域和区域原本是云计算中的概念对于一些中小型的微服务系统尤其是非互联网的企业信息系统来说很多仍然没有使用云计算设施只部署在某个专有机房内部只为特定人群提供服务这就不需要涉及地理上的地域、区域的概念了。这时你完全可以自己灵活延伸拓展Region、Zone参数的含义达到优化虚拟化基础设施流量的目的。

比如说将框架的这类设置与Kubernetes的标签、选择器相配合实现内部服务请求其他服务时优先使用同一个Node中提供的服务进行应答以降低真实的网络消耗。

小结

这节课,我们从“如何将流量转发到最恰当的服务”开始,讨论了客户端负载均衡器出现的背景、它与服务端负载均衡器之间的差异,以及通过代理来实现客户端负载均衡器的差别。

最后,借助本节课建立的上下文场景,我还给你介绍了地域与可用区域的概念。这些概念不仅在购买、使用云计算服务时会用到,还直接影响到了应用程序中路由、负载均衡的请求分发形式。

一课一思

你认为“负载均衡”这件事情,是负责设计程序的架构师、负责实现程序的开发者,还是负责部署程序的运维人员为主去考虑的呢?

欢迎在留言区分享你的思考和见解。如果你觉得有收获,也欢迎把今天的内容分享给更多的朋友。感谢你的阅读,我们下一讲再见。