first commit

This commit is contained in:
张乾
2024-10-16 06:37:41 +08:00
parent 633f45ea20
commit 206fad82a2
3590 changed files with 680090 additions and 0 deletions

View File

@ -0,0 +1,55 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
00 开篇词 掌握软件开发技术的第一性原理
计算机软件开发是一个日新月异的领域,几乎每天都有新的技术诞生。每隔几年,软件开发领域就会进行一次大的技术潮流变换,所以身处其中的软件开发技术人员也常常疲于奔命,不断学习各种新知识、新技术,生怕被这个快速变革的时代所抛弃。
但是每次从头开始学习一个新的技术这个过程既痛苦又漫长好不容易掌握得差不多了新的技术又出现了于是不断重复从入门到放弃这一过程。这个过程是如此痛苦、艰难以至于整个行业形成了一种所谓的“共识”随着学习能力和体力精力的下降编程知识和技能逐渐衰退35岁以后就不能写代码了。
其实很多看起来难以坚持、让人容易放弃的事情,并不是智力、体力或者意志力的问题,更多的是方法问题。很多时候,学习新知识和新技术之所以困难,是因为没有理解这些新技术背后的思想和原理,以及这些新技术诞生的来源。太阳底下没有新鲜事,绝大多数新技术其实都脱胎于一些既有的技术体系。
如果你能建立起这套技术思维体系,掌握这套技术体系背后的原理,那么当你接触一个新技术的时候,就可以快速把握住这个新技术的本质特征和思路方法,然后用你的技术思维体系快速推导出这个新技术是如何实现的。这个时候你其实不需要去学习这个新技术了,而是去验证这个新技术,你会去看它的文档和代码,去验证它是不是和你推导、猜测的实现方式一致,而不是去学习它怎么用了。那么,学习一个新技术就变成了一个简单、轻松、快速且充满乐趣的过程了。你不再惧怕学习新技术,而是开始抱怨:为什么技术革新得这么慢,太无聊了。你甚至可以开始自己创造新技术。
第一性原理——建立技术体系的起点
那么如何实现这一美好的愿景,建立自己的技术思维体系呢?
物理学有一个第一性原理, 指的是根据一些最基本的物理学常量从头进行物理学的推导进而得到整个物理学体系。有硅谷钢铁侠之称的埃隆·马斯克特别推崇第一性原理他做电动汽车、做航空火箭并没有去遵从别人的老路而是从这个产品最本质的需求和实现原理出发重新设计了产品最核心的关键以及发展路径进而开发出自己独特创新的产品。Google的创始人拉里·佩奇说过“让我自由地从物理规则出发去思考问题而不是迎合那些所谓的世俗智慧。”其实也是第一性原理。
第一性原理就是让我们抓住事物最本质的特征原理,依据事物本身的规律,去推导、分析、演绎事物的各种变化规律,进而洞悉事物在各种具体场景下的表现形式,而不是追随事物的表面现象,生搬硬套各种所谓的规矩、经验和技巧,以至于在各种纷繁复杂的冲突和纠结中迷失了方向。
软件开发技术也是非常庞杂的各种基础技术各种编程语言各种工具框架各种设计模式各种架构方法很容易让人觉得无所适从。就算下定决心要从基础学起上来一本厚厚的《操作系统原理》好不容易咬牙坚持学完回头一看还是各种迷茫不知道在讲什么。继续学下去再来一套更厚的《TCP/IP详解》彻底耗尽了意志力和兴趣完全放弃。
其实我们不需要一开始就精通操作系统进程调度的各种算法也不需要上来就掌握TCP/IP协议里的各种帧格式。我们应该从软件技术的第一性原理出发了解每个基础技术方向那些最关键的技术原理明白这些原理是如何和我们日常开发工作发生关系的。
比如我们的程序是如何被操作系统调度执行的为什么高并发的时候系统会崩溃原理是什么在编程时什么场合下应该使用链表什么场合下应该使用数组为什么当我们使用Hash表的时候什么情况下它的性能会急剧降低原理又是什么我们用Redis这样的分布式缓存的时候到底要解决什么问题分布式缓存是如何工作的还有哪些技术看起来和Redis毫不相干其实工作原理是一样的
如果我们能把这些基本问题都回答清楚了,那么这些问题背后的核心技术原理也都理解了,我们就开始建立起自己的技术思维体系了。当有新的问题和技术出现,你就可以思考,这是属于哪个技术领域的?它的核心原理和哪个技术方案本质是一样的?
如果你掌握了软件开发技术的第一性原理,那么当你为了解决某个新问题,去学习和研究一个新技术的时候,就算遇到了知识的盲点,也可以快速定位到自己技术体系的具体位置,进一步阅读相关的书籍资料,这个时候也许你就会深入到操作系统的调度算法实现或者通信协议头信息的具体编码里,但是这时,你不会觉得枯燥无聊,也不会觉得迷茫无措,只会觉得原来如此,太有意思了,甚至觉得这其实可以实现得更好。
专栏如何帮你建立技术体系
我想从软件技术的第一性原理出发,写一写软件技术那些最基本的知识原理和知识体系。在这个专栏中,我对自己过去二十年软件编程生涯和业界的技术发展历史进行回顾总结,将软件知识技术体系分成软件的基础原理、软件的设计原理、架构的核心原理三个部分。
软件的基础原理主要是操作系统、数据结构、数据库原理等等,我会从一个常见的问题入手,直达这些基础技术最本质的原理,并覆盖这些基础技术的主要关键技术点,让你理解这些基础技术原理和你日常开发工作的关联关系,对这些基础技术有一个全新的认知。
在软件的设计原理里,我会讲述如何设计一个强大灵活,易复用,易维护的软件。在这个过程中,应该依赖哪些工具和方法,遵循哪些原则和思想,使用哪些模式和手段。如果软件只是实现功能,那么程序员就没有高下之分,软件也没有好坏之分,技术也就不会有进步。好的软件究竟好在哪里?如何自己也写出一个好的程序?我将在这个模块一一道来。
架构的核心原理围绕目前主要的互联网分布式架构以及大数据物联网架构进行剖析,分析这些架构背后的原理,它们都遵循了怎样的驱动力和设计思想,有哪些看似不同的技术其实原理是一样的,以及如何通过这些技术实现系统的高可用和高性能。
软件开发是一个实践性很强的活动,如果你只是学习技术,那么就是在纸上谈兵。只有将知识技能应用到工作实践中,才能真正体会到技术的关键点在哪里,才能分辨出哪些技术是真正有用的,哪些方法是花拳绣腿。但是公司不是你实践技术的实验室,怎样才能处理好工作中的各种关系,得到充分的授权和信任,在工作中实践自己的技术思想,并为公司创造更多价值,得到更多的晋升和发挥的空间,使自己的技术成长和职业发展进入互相促进的正向通道?我将会在第四模块,技术人的思维修炼和你分享一些这方面的方法和认知。
我在学习几何的时候,开始常常困扰于各种定理、推论,我觉得它们都很相似,以至于进行几何证明的时候,不知道该用哪个。后来我索性不去管这些定理和推论,而是直接从公理开始证明,虽然证明步骤长了一点,但是总归能证明出来。后来做的题多了,发现有些中间推导结果总是重复出现,打开书再学习,发现这些重复出现的中间结果就是各种定理、推论。这个时候我不去记这些定理,也能随心所欲去用它们了。
其实我学几何的这种方式就是第一性原理。第一性原理是一种思维方式,一种学习方式,一种围绕事物核心推动事物正确前进的做事方式。也许这个专栏讲到的很多知识技术你已经掌握,但是这些知识技术和软件技术最基本的原理的关系你也许不甚了解。它们从何而来,又将如何构建出新的技术?如果把这些关系和原理都理解透彻了,你会发现,日常开发用到的各种技术,你不但可以随心所欲地去使用,甚至可以重新创造。
如果说具体的技术是一朵花,那么技术思维体系就是一棵树,希望你跟随我的专栏,种下自己的技术思维体系之树,收获一树繁花。
在学习的路上,你有哪些建议或者心得体会呢?欢迎你分享在评论区,我会和你一起交流这些学习方法,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下吧!

View File

@ -0,0 +1,98 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
01 程序运行原理:程序是如何运行又是如何崩溃的?
软件的核心载体是程序代码,软件开发的主要工作产出也是代码,但是代码被存储在磁盘上本身没有任何价值,软件要想实现价值,代码就必须运行起来。那么代码是如何运行的?在运行中可能会出现什么问题呢?
程序是如何运行起来的
软件被开发出来是文本格式的代码这些代码通常不能直接运行需要使用编译器编译成操作系统或者虚拟机可以运行的代码即可执行代码它们都被存储在文件系统中。不管是文本格式的代码还是可执行的代码都被称为程序程序是静态的安静地呆在磁盘上什么也干不了。要想让程序处理数据完成计算任务必须把程序从外部设备加载到内存中并在操作系统的管理调度下交给CPU去执行去运行起来才能真正发挥软件的作用程序运行起来以后被称作进程。
进程除了包含可执行的程序代码,还包括进程在运行期使用的内存堆空间、栈空间、供操作系统管理用的数据结构。如下图所示:
操作系统把可执行代码加载到内存中生成相应的数据结构和内存空间后就从可执行代码的起始位置读取指令交给CPU顺序执行。指令执行过程中可能会遇到一条跳转指令即CPU要执行的下一条指令不是内存中可执行代码顺序的下一条指令。编程中使用的循环for…while…和if…else…最后都被编译成跳转指令。
程序运行时如果需要创建数组等数据结构,操作系统就会在进程的堆空间申请一块相应的内存空间,并把这块内存的首地址信息记录在进程的栈中。堆是一块无序的内存空间,任何时候进程需要申请内存,都会从堆空间中分配,分配到的内存地址则记录在栈中。
栈是严格的一个后进先出的数据结构,同样由操作系统维护,主要用来记录函数内部的局部变量、堆空间分配的内存空间地址等。
我们以如下代码示例,描述函数调用过程中,栈的操作过程:
void f(){
int x = g(1);
x++; //g函数返回当前堆栈顶部为f函数栈帧在当前栈帧继续执行f函数的代码。
}
int g(int x){
return x + 1;
}
每次函数调用操作系统都会在栈中创建一个栈帧stack frame。正在执行的函数参数、局部变量、申请的内存地址等都在当前栈帧中也就是堆栈的顶部栈帧中。如下图所示
当f函数执行的时候f函数就在栈顶栈帧中存储着f函数的局部变量输入参数等等。当f函数调用g函数当前执行函数就变成g函数操作系统会为g函数创建一个栈帧并放置在栈顶。当函数g()调用结束程序返回f函数g函数对应的栈帧出栈顶部栈帧变又为f函数继续执行f函数的代码也就是说真正执行的函数永远都在栈顶。而且因为栈帧是隔离的所以不同函数可以定义相同的变量而不会发生混乱。
一台计算机如何同时处理数以百计的任务
我们自己日常使用的PC计算机通常只是一核或者两核的CPU我们部署应用程序的服务器虽然有更多的CPU核心通常也不过几核或者几十核。但是我们的PC计算机可以同时编程、听音乐而且还能执行下载任务而服务器则可以同时处理数以百计甚至数以千计的并发用户请求。
那么为什么一台计算机服务器可以同时处理数以百计以千计的计算任务呢这里主要依靠的是操作系统的CPU分时共享技术。如果同时有很多个进程在执行操作系统会将CPU的执行时间分成很多份进程按照某种策略轮流在CPU上运行。由于现代CPU的计算能力非常强大虽然每个进程都只被执行了很短一个时间但是在外部看来却好像是所有的进程都在同时执行每个进程似乎都独占一个CPU执行。
所以虽然从外部看起来多个进程在同时运行但是在实际物理上进程并不总是在CPU上运行的一方面进程共享CPU所以需要等待CPU运行另一方面进程在执行I/O操作的时候也不需要CPU运行。进程在生命周期中主要有三种状态运行、就绪、阻塞。
运行当一个进程在CPU上运行时则称该进程处于运行状态。处于运行状态的进程的数目小于等于CPU的数目。
就绪当一个进程获得了除CPU以外的一切所需资源只要得到CPU即可运行则称此进程处于就绪状态就绪状态有时候也被称为等待运行状态。
阻塞也称为等待或睡眠状态当一个进程正在等待某一事件发生例如等待I/O完成等待锁……而暂时停止运行这时即使把CPU分配给进程也无法运行故称该进程处于阻塞状态。
不同进程轮流在CPU上执行每次都要进行进程间CPU切换代价是非常大的实际上每个用户请求对应的不是一个进程而是一个线程。线程可以理解为轻量级的进程在进程内创建拥有自己的线程栈在CPU上进行线程切换的代价也更小。线程在运行时和进程一样也有三种主要状态从逻辑上看进程的主要概念都可以套用到线程上。我们在进行服务器应用开发的时候通常都是多线程开发理解线程对我们设计、开发软件更有价值。
系统为什么会变慢,为什么会崩溃
现在的服务器软件系统主要使用多线程技术实现多任务处理,完成对很多用户的并发请求处理。也就是我们开发的应用程序通常以一个进程的方式在操作系统中启动,然后在进程中创建很多线程,每个线程处理一个用户请求。
以Java的web开发为例似乎我们编程的时候通常并不需要自己创建和启动线程那么我们的程序是如何被多线程并发执行同时处理多个用户请求的呢实际中启动多线程为每个用户请求分配一个处理线程的工作是在web容器中完成的比如常用的Tomcat容器。
如下图所示:
Tomcat启动多个线程为每个用户请求分配一个线程调用和请求URL路径相对应的Servlet或者Controller代码完成用户请求处理。而Tomcat则在JVM虚拟机进程中JVM虚拟机则被操作系统当做一个独立进程管理。真正完成最终计算的是CPU、内存等服务器硬件操作系统将这些硬件进行分时CPU、分片内存管理虚拟化成一个独享资源让JVM进程在其上运行。
以上就是一个Java web应用运行时的主要架构有时也被称作架构过程视图。需要注意的是这里有个很多web开发者容易忽略的事情那就是不管你是否有意识你开发的web程序都是被多线程执行的web开发天然就是多线程开发。
CPU以线程为单位进行分时共享执行可以想象代码被加载到内存空间后有多个线程在这些代码上执行这些线程从逻辑上看是同时在运行的每个线程有自己的线程栈所有的线程栈都是完全隔离的也就是每个方法的参数和方法内的局部变量都是隔离的一个线程无法访问到其他线程的栈内数据。
但是当某些代码修改内存堆里的数据的时候,如果有多个线程在同时执行,就可能会出现同时修改数据的情况,比如,两个线程同时对一个堆中的数据执行+1操作最终这个数据只会被加一次这就是人们常说的线程安全问题实际上线程的结果应该是依次加一即最终的结果应该是+2。
多个线程访问共享资源的这段代码被称为临界区,解决线程安全问题的主要方法是使用锁,将临界区的代码加锁,只有获得锁的线程才能执行临界区代码,如下:
lock.lock(); //线程获得锁
i++; //临界区代码i位于堆中
lock.unlock(); //线程释放锁
如果当前线程执行到第一行,获得锁的代码的时候,锁已经被其他线程获取并没有释放,那么这个线程就会进入阻塞状态,等待前面释放锁的线程将自己唤醒重新获得锁。
锁会引起线程阻塞如果有很多线程同时在运行那么就会出现线程排队等待锁的情况线程无法并行执行系统响应速度就会变慢。此外I/O操作也会引起阻塞对数据库连接的获取也可能会引起阻塞。目前典型的web应用都是基于RDBMS关系数据库的web应用要想访问数据库必须获得数据库连接而受数据库资源限制每个web应用能建立的数据库的连接是有限的如果并发线程数超过了连接数那么就会有部分线程无法获得连接而进入阻塞等待其他线程释放连接后才能访问数据库并发的线程数越多等待连接的时间也越多从web请求者角度看响应时间变长系统变慢。
被阻塞的线程越多,占据的系统资源也越多,这些被阻塞的线程既不能继续执行,也不能释放当前已经占据的资源,在系统中一边等待一边消耗资源,如果阻塞的线程数超过了某个系统资源的极限,就会导致系统宕机,应用崩溃。
解决系统因高并发而导致的响应变慢、应用崩溃的主要手段是使用分布式系统架构,用更多的服务器构成一个集群,以便共同处理用户的并发请求,保证每台服务器的并发负载不会太高。此外必要时还需要在请求入口处进行限流,减小系统的并发请求数;在应用内进行业务降级,减小线程的资源消耗。高并发系统架构方案将在专栏的第三模块中进一步探讨。
小结
事实上现代CPU和操作系统的设计远比这篇文章讲的要复杂得多但是基础原理大致就是如此。为了让程序能很好地被执行软件开发的时候要考虑很多情况为了让软件能更好地发挥效能需要在部署上进行规划和架构。软件是如何运行的应该是软件工程师和架构师的常识在设计开发软件的时候应该时刻以常识去审视自己的工作保证软件开发在正确的方向上前进。
思考题
线程安全的临界区需要依靠锁而锁的获取必须也要保证自己是线程安全的也就是说不能出现两个线程同时得到锁的情况那么锁是如何保证自己是线程安全的呢或者说在操作系统以及CPU层面锁是如何实现的
你不妨思考一下这个问题,把你的思考写在下面的评论区里,我会和你一起交流。也欢迎你把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,108 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
02 数据结构原理Hash表的时间复杂度为什么是O(1)
大概十年前我在阿里巴巴工作的时候曾经和另一个面试官一起进行一场技术面试面试过程中我问了一个问题Hash表的时间复杂度为什么是O(1)?候选人没有回答上来。面试结束后我和另一个面试官有了分歧,我觉得这个问题没有回答上来是不可接受的。而他则觉得,这个问题有一点难度,回答不上来不说明什么。
因为有了这次争执,后来这个问题成了我面试时的必考题。此后十年间,我用这个问题面试了大约上千人,这些面试经历让我更加坚定了一个想法:这个问题就是候选人技术水平的一个分水岭,是证明一个技术人员是否具有必备专业技能和技术悟性的一个门槛。这个槛过不去是不可接受的。
为什么呢?我很难相信,如果基本的数据结构没有掌握好,如何能开发好一个稍微复杂一点的程序?
要了解Hash表需要先从数组说起。
数组
数组是最常用的数据结构创建数组必须要内存中一块连续的空间并且数组中必须存放相同的数据类型。比如我们创建一个长度为10数据类型为整型的数组在内存中的地址是从1000开始那么它在内存中的存储格式如下。
由于每个整型数据占据4个字节的内存空间因此整个数组的内存空间地址是10001039根据这个我们就可以轻易算出数组中每个数据的内存下标地址。利用这个特性我们只要知道了数组下标也就是数据在数组中的位置比如下标2就可以计算得到这个数据在内存中的位置1008从而对这个位置的数据241进行快速读写访问时间复杂度为O(1)。
随机快速读写是数组的一个重要特性但是要随机访问数据必须知道数据在数组中的下标。如果我们只是知道数据的值想要在数组中找到这个值那么就只能遍历整个数组时间复杂度为O(N)。
链表
不同于数组必须要连续的内存空间链表可以使用零散的内存空间存储数据。不过因为链表在内存中的数据不是连续的所以链表中的每个数据元素都必须包含一个指向下一个数据元素的内存地址指针。如下图链表的每个元素包含两部分一部分是数据一部分是指向下一个元素的地址指针。最后一个元素指向null表示链表到此为止。
因为链表是不连续存储的要想在链表中查找一个数据只能遍历链表所以链表的查找复杂度总是O(N)。
但是正因为链表是不连续存储的所以在链表中插入或者删除一个数据是非常容易的只要找到要插入删除的位置修改链表指针就可以了。如图想在b和c之间插入一个元素x只需要将b指向c的指针修改为指向x然后将x的指针指向c就可以了。
相比在链表中轻易插入、删除一个元素这种简单的操作,如果我们要想在数组中插入、删除一个数据,就会改变数组连续内存空间的大小,需要重新分配内存空间,这样要复杂得多。
Hash表
前面说过对数组中的数据进行快速访问必须要通过数组的下标时间复杂度为O(1)。如果只知道数据或者数据中的部分内容想在数组中找到这个数据还是需要遍历数组时间复杂度为O(N)。
事实上知道部分数据查找完整数据的需求在软件开发中会经常用到比如知道了商品ID想要查找完整的商品信息知道了词条名称想要查找百科词条中的详细信息等。
这类场景就需要用到Hash表这种数据结构。Hash表中数据以Key、Value的方式存储上面例子中商品ID和词条名称就是Key商品信息和词条详细信息就是Value。存储的时候将Key、Value写入Hash表读取的时候只需要提供Key就可以快速查找到Value。
Hash表的物理存储其实是一个数组如果我们能够根据Key计算出数组下标那么就可以快速在数组中查找到需要的Key和Value。许多编程语言支持获得任意对象的 HashCode比如Java 语言中 HashCode 方法包含在根对象 Object 中,其返回值是一个 Int。我们可以利用这个Int类型的HashCode计算数组下标。最简单的方法就是余数法使用 Hash 表的数组长度对 HashCode 求余, 余数即为 Hash 表数组的下标,使用这个下标就可以直接访问得到 Hash 表中存储的 Key、Value。
上图这个例子中Key是字符串abcValue是字符串hello。我们先计算Key的哈希值得到101这样一个整型值。然后用101对8取模这个8是哈希表数组的长度。101对8取模余5这个5就是数组的下标这样就可以把(“abc”,“hello”)这样一个Key、Value值存储在下标为5的数组记录中。
当我们要读取数据的时候只要给定Key abc还是用这样一个算法过程先求取它的HashCode 101然后再对8取模因为数组的长度不变对8取模以后依然是余5那么我们到数组下标中去找5的这个位置就可以找到前面存储进去的abc对应的Value值。
但是如果不同的Key计算出来的数组下标相同怎么办HashCode101对8取模余数是5HashCode109对8取模余数还是5也就是说不同的Key有可能计算得到相同的数组下标这就是所谓的Hash冲突解决Hash冲突常用的方法是链表法。
事实上,(“abc”,“hello”)这样的Key、Value数据并不会直接存储在Hash表的数组中因为数组要求存储固定数据类型主要目的是每个数组元素中要存放固定长度的数据。所以数组中存储的是Key、Value数据元素的地址指针。一旦发生Hash冲突只需要将相同下标不同Key的数据元素添加到这个链表就可以了。查找的时候再遍历这个链表匹配正确的Key。
如下图:
因为有Hash冲突的存在所以“Hash表的时间复杂度为什么是O(1)”这句话并不严谨极端情况下如果所有Key的数组下标都冲突那么Hash表就退化为一条链表查询的时间复杂度是O(N)。但是作为一个面试题“Hash表的时间复杂度为什么是O(1)”是没有问题的。
数组和链表都被称为线性表,因为里面的数据是按照线性组织存放的,每个数据元素的前面只能有一个(前驱)数据元素,后面也只能有一个(后继)数据元素,所以称为线性表。但是对数组和链表的操作可以是随机的,可以对其上任何元素进行操作,如果对操作方式加以限制,就形成了新的数据结构。
栈就是在线性表的基础上加了这样的操作限制条件:后面添加的数据,在删除的时候必须先删除,即通常所说的“后进先出”。我们可以把栈可以想象成一个大桶,往桶里面放食物,一层一层放进去,如果要吃的时候,必须从最上面一层吃,吃了几层后,再往里放食物,还是从当前的最上面一层放起。
栈在线性表的基础上增加了操作限制,具体实现的时候,因为栈不需要随机访问、也不需要在中间添加、删除数据,所以可以用数组实现,也可以用链表实现。那么在顺序表的基础上增加操作限制有什么好处呢?
我们上篇提到的程序运行过程中,方法的调用需要用栈来管理每个方法的工作区,这样,不管方法如何嵌套调用,栈顶元素始终是当前正在执行的方法的工作区。这样,事情就简单了。而简单,正是我们做软件开发应该努力追求的一个目标。
队列
队列也是一种操作受限的线性表,栈是后进先出,而队列是先进先出。
在软件运行期,经常会遇到资源不足的情况:提交任务请求线程池执行,但是线程已经用完了,任务需要放入队列,先进先出排队执行;线程在运行中需要访问数据库,数据库连接有限,已经用完了,线程进入阻塞队列,当有数据库连接释放的时候,从阻塞队列头部唤醒一个线程,出队列获得连接访问数据库。
我在上面讲堆栈的时候,举了一个大桶放食物的例子,事实上,如果用这种方式存放食物,有可能最底下食物永远都吃不到,最后过期了。
现实中也是如此,超市在货架上摆放食品的时候,其实是按照队列摆放的,而不是堆栈摆放的。工作人员在上架新食品的时候,总是把新食品摆在后面,使食品成为一个队列,以便让以前上架的食品被尽快卖出。
数组、链表、栈、队列都是线性表,也就是每个数据元素都只有一个前驱,一个后继。而树则是非线性表,树是这样的。
软件开发中也有很多地方用到树比如我们要开发一个OA系统部门的组织结构就是一棵树我们编写的程序在编译的时候第一步就是将程序代码生成抽象语法树。传统上树的遍历使用递归的方式而我个人更喜欢用设计模式中的组合模式进行树的遍历具体我将会在设计模式部分详细讨论。
小结
这是一篇关于数据结构的专栏文章,面试中问数据结构是一个非常有意思的话题,很多拥有绚丽简历和多年工作经验的候选人在数据结构的问题上翻了船,这些人有时候会解释说,这些知识都是大学时学过的,工作这些年用不着,记不太清楚了。
事实上,我很难相信,如果这些基本数据结构没有掌握好,如何能开发好一个稍微复杂一点的程序。但欣慰的是,在这些年的面试过程中,我发现候选者中能够正确回答基本数据结构问题的比例越来越高了,我也越来越坚定用数据结构问题当做是否跨过专业工程师门槛的试金石。作为一个专业软件工程师,不管有多少年经验,说不清楚基础数据结构的工作原理是不能接受的。
思考题
链表结构虽然简单,但是各种组合变换操作却可以很复杂。关于链表的操作也是面试官最喜欢问的数据结构问题之一,我在面试过程中喜欢问的一个链表问题是:
有两个单向链表这两个单向链表有可能在某个元素合并如下图所示的这样也可能不合并。现在给定两个链表的头指针如何快速地判断这两个链表是否合并如果合并找到合并的元素也就是图中的x元素。
关于这道题,你的答案是什么呢?
欢迎你在评论区写下你的思考,我会和你一起交流,也欢迎把这篇文章分享给你朋友或者同事,一起交流一下。

View File

@ -0,0 +1,108 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
03 Java虚拟机原理JVM为什么被称为机器machine
人们常说Java是一种跨平台的语言这意味着Java开发出来的程序经过编译后可以在Linux上运行也可以在Windows上运行可以在PC、服务器上运行也可以在手机上运行可以在X86的CPU上运行也可以在ARM的CPU上运行。
因为不同操作系统特别是不同CPU架构是不可能执行相同的指令的。而Java之所以有这种神奇的特性就是因为Java编译的字节码文件不是直接在底层的系统平台上运行的而是在Java虚拟机JVM上运行JVM屏蔽了底层系统的不同为Java字节码文件构造了一个统一的运行环境。JVM本质上也是一个应用程序启动以后加载执行Java字节码文件。JVM的全称是Java Virtual Machine你有没有想过这样一个程序为什么被称为机器Machine
其实如果回答了这个问题也就了解了JVM的底层构造了。这样在进行Java开发的时候如果遇到各种问题都可以思考一下在JVM层面是如何的然后进一步查找资料、分析问题直至真正地解决问题。
JVM的组成构造
要想知道这个问题的答案我们首先需要了解JVM的构造。JVM主要由类加载器、运行时数据区、执行引擎三个部分组成。
运行时数据区主要包括方法区、堆、Java栈、程序计数寄存器。
方法区主要存放从磁盘加载进来的类字节码而在程序运行过程中创建的类实例则存放在堆里。程序运行的时候实际上是以线程为单位运行的当JVM进入启动类的main方法的时候就会为应用程序创建一个主线程main方法里的代码就会被这个主线程执行每个线程有自己的Java栈栈里存放着方法运行期的局部变量。而当前线程执行到哪一行字节码指令这个信息则被存放在程序计数寄存器。
一个典型的Java程序运行过程是下面这样的。
通过Java命令启动JVMJVM的类加载器根据Java命令的参数到指定的路径加载.class类文件类文件被加载到内存后存放在专门的方法区。然后JVM创建一个主线程执行这个类文件的main方法main方法的输入参数和方法内定义的变量被压入Java栈。如果在方法内创建了一个对象实例这个对象实例信息将会被存放到堆里而对象实例的引用也就是对象实例在堆中的地址信息则会被记录在栈里。堆中记录的对象实例信息主要是成员变量信息因为类方法内的可执行代码存放在方法区而方法内的局部变量存放在线程的栈里。
程序计数寄存器一开始存放的是main方法的第一行代码位置JVM的执行引擎根据这个位置去方法区的对应位置加载这行代码指令将其解释为自身所在平台的CPU指令后交给CPU执行。如果在main方法里调用了其他方法那么在进入其他方法的时候会在Java栈中为这个方法创建一个新的栈帧当线程在这个方法内执行的时候方法内的局部变量都存放在这个栈帧里。当这个方法执行完毕退出的时候就把这个栈帧从Java栈中出栈这样当前栈帧也就是堆栈的栈顶就又回到了main方法的栈帧使用这个栈帧里的变量继续执行main方法。这样即使main方法和f方法都定义相同的变量JVM也不会弄错。这部分内容我们在第一篇已经讨论过JVM作为一个machine和操作系统的处理线程栈的的方法是一样的。
Java的线程安全常常让人困惑你可以试着从Java栈的角度去理解所有在方法内定义的基本类型变量都会被每个运行这个方法的线程放入自己的栈中线程的栈彼此隔离所以这些变量一定是线程安全的。如果在方法里创建了一个对象实例这个对象实例如果没有被方法返回或者放入某些外部的对象容器中的话也就是说这个对象的引用没有离开这个方法虽然这个对象被放置在堆中但是这个对象不会被其他线程访问到也是线程安全的。
相反像Servlet这样的类在Web容器中创建以后会被传递给每个访问Web应用的用户线程执行这个类就不是线程安全的。但这并不意味着一定会引发线程安全问题如果Servlet类里没有成员变量即使多线程同时执行这个Servlet实例的方法也不会造成成员变量冲突。这种对象被称作无状态对象也就是说对象不记录状态执行这个对象的任何方法都不会改变对象的状态也就不会有线程安全问题了。事实上Web开发实践中常见的Service类、DAO类都被设计成无状态对象所以虽然我们开发的Web应用都是多线程的应用因为Web容器一定会创建多线程来执行我们的代码但是我们开发中却可以很少考虑线程安全的问题。
我们再回过头看JVM它封装了一组自定义的字节码指令集有自己的程序计数器和执行引擎像CPU一样可以执行运算指令。它还像操作系统一样有自己的程序装载与运行机制内存管理机制线程及栈管理机制看起来就像是一台完整的计算机这就是JVM被称作machine机器的原因。
JVM的垃圾回收
事实上JVM比操作系统更进一步它不但可以管理内存还可以对内存进行自动垃圾回收。所谓自动垃圾回收就是将JVM堆中的已经不再被使用的对象清理掉释放宝贵的内存资源。那么要想进行垃圾回收首先一个问题就是如何知道哪些对象是不再被使用的可以清理的呢
JVM通过一种可达性分析算法进行垃圾对象的识别具体过程是从线程栈帧中的局部变量或者是方法区的静态变量出发将这些变量引用的对象进行标记然后看这些被标记的对象是否引用了其他对象继续进行标记所有被标记过的对象都是被使用的对象而那些没有被标记的对象就是可回收的垃圾对象了。所以你可以看出来可达性分析算法其实是一个引用标记算法。
进行完标记以后JVM就会对垃圾对象占用的内存进行回收回收主要有三种方法。
第一种方式是清理将垃圾对象占据的内存清理掉其实JVM并不会真的将这些垃圾内存进行清理而是将这些垃圾对象占用的内存空间标记为空闲记录在一个空闲列表里当应用程序需要创建新对象的时候就从空闲列表中找一段空闲内存分配给这个新对象。
但这样做有一个很明显的缺陷,由于垃圾对象是散落在内存空间各处的,所以标记出来的空闲空间也是不连续的,当应用程序创建一个数组需要申请一段连续的大内存空间时,即使堆空间中有足够的空闲空间,也无法为应用程序分配内存。
第二种方式是压缩:从堆空间的头部开始,将存活的对象拷贝放在一段连续的内存空间中,那么其余的空间就是连续的空闲空间。
第三种方法是复制将堆空间分成两部分只在其中一部分创建对象当这个部分空间用完的时候将标记过的可用对象复制到另一个空间中。JVM将这两个空间分别命名为from区域和to区域。当对象从from区域复制到to区域后两个区域交换名称引用继续在from区域创建对象直到from区域满。
下面这系列图可以让你直观地了解JVM三种不同的垃圾回收机制。
回收前:
清理:
压缩:
复制:
JVM在具体进行垃圾回收的时候会进行分代回收。绝大多数的Java对象存活时间都非常短很多时候就是在一个方法内创建对象对象引用放在栈中当方法调用结束栈帧出栈的时候这个对象就失去引用了成为垃圾。针对这种情况JVM将堆空间分成新生代young和老年代old两个区域创建对象的时候只在新生代创建当新生代空间不足的时候只对新生代进行垃圾回收这样需要处理的内存空间就比较小垃圾回收速度就比较快。
新生代又分为Eden区、From区和To区三个区域每次垃圾回收都是扫描Eden区和From区将存活对象复制到To区然后交换From区和To区的名称引用下次垃圾回收的时候继续将存活对象从From区复制到To区。当一个对象经过几次新生代垃圾回收也就是几次从From区复制到To区以后依然存活那么这个对象就会被复制到老年代区域。
当老年代空间已满也就是无法将新生代中多次复制后依然存活的对象复制进去的时候就会对新生代和老年代的内存空间进行一次全量垃圾回收即Full GC。所以根据应用程序的对象存活时间合理设置老年代和新生代的空间比例对JVM垃圾回收的性能有很大影响JVM设置老年代新生代比例的参数是-XX:NewRatio。
JVM中具体执行垃圾回收的垃圾回收器有四种。
第一种是Serial 串行垃圾回收器这是JVM早期的垃圾回收器只有一个线程执行垃圾回收。
第二种是Parallel 并行垃圾回收器它启动多线程执行垃圾回收。如果JVM运行在多核CPU上那么显然并行垃圾回收要比串行垃圾回收效率高。
在串行和并行垃圾回收过程中当垃圾回收线程工作的时候必须要停止用户线程的工作否则可能会导致对象的引用标记错乱因此垃圾回收过程也被称为stop the world在用户视角看来所有的程序都不再执行整个世界都停止了。
第三种CMS 并发垃圾回收器在垃圾回收的某些阶段垃圾回收线程和用户线程可以并发运行因此对用户线程的影响较小。Web应用这类对用户响应时间比较敏感的场景适用CMS垃圾回收器。
最后一种是G1 垃圾回收器它将整个堆空间分成多个子区域然后在这些子区域上各自独立进行垃圾回收在回收过程中垃圾回收线程和用户线程也是并发运行。G1综合了以前几种垃圾回收器的优势适用于各种场景是未来主要的垃圾回收器。
小结
我们为什么需要了解JVM呢JVM有很多配置参数Java开发过程中也可能会遇到各种问题了解了JVM的基本构造就可以帮助我们从原理上去解决问题。
比如遇到OutOfMemoryError我们就知道是堆空间不足了可能是JVM分配的内存空间不足以让程序正常运行这时候我们需要通过调整-Xmx参数增加内存空间。也可能是程序存在内存泄漏比如一些对象被放入List或者Map等容器对象中虽然这些对象程序已经不再使用了但是这些对象依然被容器对象引用无法进行垃圾回收导致内存溢出这时候可以通过jmap命令查看堆中的对象情况分析是否有内存泄漏。
如果遇到StackOverflowError我们就知道是线程栈空间不足栈空间不足通常是因为方法调用的层次太多导致栈帧太多。我们可以先通过栈异常信息观察是否存在错误的递归调用因为每次递归都会使嵌套方法调用更深入一层。如果调用是正常的可以尝试调整-Xss参数增加栈空间大小。
如果程序运行卡顿部分请求响应延迟比较厉害那么可以通过jstat命令查看垃圾回收器的运行状况是否存在较长时间的FullGC然后调整垃圾回收器的相关参数使垃圾回收对程序运行的影响尽可能小。
执行引擎在执行字节码指令的时候是解释执行的也就是每个字节码指令都会被解释成一个底层的CPU指令但是这样的解释执行效率比较差JVM对此进行了优化将频繁执行的代码编译为底层CPU指令存储起来后面再执行的时候直接执行编译好的指令不再解释执行这就是JVM的即时编译JIT。Web应用程序通常是长时间运行的使用JIT会有很好的优化效果可以通过-server参数打开JIT的C2编译器进行优化。
总之如果你理解了JVM的构造在进行Java开发的时候遇到各种问题都可以思考一下这在JVM层面是如何的然后进一步查找资料、分析问题这样就会真正解决问题而且经过这样不断地思考分析你对Java对JVM甚至对整个计算机的原理体系以及设计理念都会有更多认识和领悟。
思考题
你在Java开发过程中遇到过什么样的问题这些问题和JVM底层原理是怎样的关系
你有想过这些问题吗?你可以把你的疑惑或者想法写在评论区里,集思广益。也欢迎你把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,116 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
04 网络编程原理:一个字符的互联网之旅
我们开发的面向普通用户的应用程序目前看来几乎都是互联网应用程序也就是说用户操作的应用程序不管是浏览器还是移动App核心请求都会通过互联网发送到后端的数据中心进行处理。这个数据中心可能是像微信这样的自己建设的、在多个地区部署的大规模机房也可能是阿里云这样的云服务商提供的一个虚拟主机。
但是不管这个数据中心的大小应用程序都需要在运行期和数据中心交互。比如我们在淘宝的搜索框随便输入一个字符“a”就会在屏幕上看到一大堆商品。那么我们的手机是如何通过互联网完成这一操作的这个字符如何穿越遥远的空间从手机发送到淘宝的数据中心在淘宝计算得到相关的结果然后将结果再返回到我们的手机上从而完成自己的互联网之旅呢
虽然我们在编程的时候很少要自己直接开发网络通信代码服务器由Tomcat这样的WEB容器管理网络通信服务间网络通信通过Dubbo这样的分布式服务框架完成网络通信。但是由于我们现在开发的应用主要是互联网应用它们构建在网络通信基础上网络通信的问题可能会出现在系统运行的任何时刻。了解网络通信原理了解互联网应用如何跨越庞大的网络构建起来对我们开发一个互联网应用系统很有帮助对我们解决系统运行过程中各种因为网络通信而出现的各种问题更有帮助。
DNS
我们先从DNS说起。
构成互联网Internet的最基本的网络协议就是互联网协议Internet Protocol简称IP协议。IP协议里面最重要的部分是IP地址各种计算机设备之间能够互相通信首先要能够找到彼此IP地址就是互联网的地址标识。手机上的淘宝App能够访问淘宝的数据中心就是知道了淘宝数据中心负责请求接入的服务器的IP地址然后建立网络连接进而处理请求数据。
那么手机上的淘宝App如何知道数据中心服务器的IP地址呢当然淘宝的工程师可以在App里写死这个IP地址但是这样做会带来很多问题比如影响编程的灵活性以及程序的可用性等。
事实上这个IP地址是通过DNS域名解析服务器得到的。当我们打开淘宝App的时候淘宝要把App首页加载进来这时候就需要连接域名服务器进行域名解析将xxx.taobao.com这样的域名解析为一个IP地址然后连接目标服务器。
CDN
事实上DNS解析出来的IP地址并不一定是淘宝数据中心的IP地址也可能是淘宝CDN服务器的IP地址。
CDN是内容分发网络Content Delivery Network的缩写。我们能够用手机或者电脑上网是因为运营服务商为我们提供了互联网接入服务将我们的手机和电脑连接到互联网上。App请求的数据最先到达的是运营服务商的机房然后运营商通过自己建设的骨干网络和交换节点将我们请求数据的目的地址发往互联网的任何地方。
为了提高用户请求访问的速度也为了降低数据中心的负载压力淘宝会在全国各地各个主要的运营服务商的接入机房中部署一些缓存服务器缓存那些静态的图片、资源文件等这些缓存服务器构成了淘宝的CDN。
如果用户请求的数据数据是静态的资源这些资源的URL通常以image.taobao.com之类的二级域名进行标识域名解析的时候就会解析为淘宝CDN的IP地址请求先被CDN处理如果CDN中有需要的静态文件就直接返回如果没有CDN会将请求发送到淘宝的数据中心CDN从淘宝数据中心获得静态文件后一方面缓存在自己的服务器上一方面将数据返回给用户的App。
而如果请求的数据是动态的比如要搜索关键词为“a”的商品列表请求的域名可能会是search.taobao.com这样的二级域名就会直接被DNS解析为淘宝的数据中心的服务器IP地址App请求发送到数据中心处理。
HTTP
不管发送到CDN还是数据中心App请求都会以HTTP协议发送。
HTTP是一个应用层协议当我们进行网络通信编程的时候通常需要关注两方面的内容一方面是应用层的通信协议主要是我们通信的数据如何编码既能使网络传输过去的数据携带必要的信息又使通信的两方都能正确识别这些数据即通信双方应用程序需要约定一个数据编码协议。另一方面就是网络底层通信协议即如何为网络上需要通信的两个节点建立连接完成数据传输目前互联网应用中最主要的就是TCP协议。
在TCP传输层协议层面就是保证建立通信两方的稳定通信连接将一方的数据以bit流的方式源源不断地发送到另一方至于这些数据代表什么意思哪里是两次请求的分界点TCP协议统统不管需要应用层面自己解决。如果我们基于TCP协议自己开发应用程序就必须解决这些问题。而互联网应用需要在全球范围为用户提供服务将全球的应用和全球的用户联系在一起需要一个统一的应用层协议这个协议就是HTTP协议。
这张图是HTTP的请求头的例子包括请求方法和请求头参数。请求方法主要有GET、POST这是我们最常用的两种此外还有DELETE、PUT、HEAD、TRACE等几种方法请求头参数包括缓存控制Cache-Control、响应过期时间Expires、Cookie等等。
HTTP请求如果是GET方法那么就只有请求头如果是POST方法在请求头之后还有一个body部分包含请求提交的内容HTTP会在请求头的Content-Length参数声明body的长度。
这是HTTP响应头的例子响应头和请求头一样包含各种参数而status状态码声明响应状态状态码是200表示响应正常。
响应状态码是3XX表示请求被重定向常用的302表示请求被临时重定向到新的URL响应头中包含新的临时URL客户端收到响应后重新请求这个新的URL状态码是4XX表示客户端错误常见的403表示请求未授权被禁止访问404表示请求的页面不存在状态码是5XX表示服务器异常常见的500请求未完成502请求处理超时503服务器过载。
如果响应正常那么在响应头之后就是响应body浏览器的响应body通常是一个HTML页面App的响应body通常是个JSON字符串。
TCP
应用程序使用操作系统的socket接口进行网络编程socket里封装了TCP协议。应用程序通过socket接口使用TCP协议完成网络编程socket或者TCP在应用程序看就是一个底层通信协议事实上TCP仅仅是一个传输层协议在传输层协议之下还有网络层协议网络层协议之下还有数据链路层协议数据链路层协议之下还有物理层协议。
传输层协议TCP和网络层协议IP共同构成TCP/IP协议栈成为互联网应用开发最主要的通信协议。OSI开放系统互联模型将网络协议定义了7层TCP/IP协议栈将OSI顶部三层协议应用层、表示层、会话层合并为一个应用层HTTP协议就是TCP/IP协议栈中的应用层协议。
物理层负责数据的物理传输计算机输入输出的只能是0 1这样的二进制数据但是在真正的通信线路里有光纤、电缆、无线各种设备。光信号和电信号以及无线电磁信号在物理上是完全不同的如何让这些不同的设备能够理解、处理相同的二进制数据这就是物理层要解决的问题。
数据链路层就是将数据进行封装后交给物理层进行传输,主要就是将数据封装成数据帧,以帧为单位通过物理层进行通信,有了帧,就可以在帧上进行数据校验,进行流量控制。数据链路层会定义帧的大小,这个大小也被称为最大传输单元。
像HTTP要在传输的数据上添加一个HTTP头一样数据链路层也会将封装好的帧添加一个帧头帧头里记录的一个重要信息就是发送者和接受者的mac地址。mac地址是网卡的设备标识符是唯一的数据帧通过这个信息确保数据送达到正确的目标机器。
前面已经提到网络层IP协议使得互联网应用根据IP地址就能访问到淘宝的数据中心请求离开App后到达运营服务商的交换机交换机会根据这个IP地址进行路由转发可能中间会经过很多个转发节点最后数据到达淘宝的服务器。
网络层的数据需要交给链路层进行处理而链路层帧的大小定义了最大传输单元网络层的IP数据包必须要小于最大传输单元才能进行网络传输这个数据包也有一个IP头主要包括的就是发送者和接受者的IP地址。
IP协议不是一个可靠的通信协议并不会确保数据一定送达。要保证通信的稳定可靠需要传输层协议TCP。TCP协议在传输正式数据前会先建立连接这就是著名的TCP三次握手。
App和服务器之间发送三次报文才会建立一个TCP连接报文中的SYN表示请求建立连接ACK表示确认。App先发送 SYN=1Seq=X的报文表示请求建立连接X是一个随机数淘宝服务器收到这个报文后应答SYN=1ACK=X+1Seq=Y的报文表示同意建立连接App收到这个报文后检查ACK的值为自己发送的Seq值+1确认建立连接并发送ACK=Y+1的报文给服务器服务器收到这个报文后检查ACK值为自己发送的Seq值+1确认建立连接。至此App和服务器建立起TCP连接就可以进行数据传输了。
TCP也会在数据包上添加TCP头TCP头除了包含一些用于校验数据正确性和控制数据流量的信息外还包含通信端口信息一台机器可能同时有很多进程在进行网络通信。如何使数据到达服务器后能发送给正确的进程去处理就需要靠通信端口进行标识了。HTTP默认端口是80当然我们可以在启动HTTP应用服务器进程的时候随便定义一个数字作为HTTP应用服务器进程的监听端口但是App在请求的时候必须在URL中包含这个端口才能在构建的TCP包中记录这个端口也才能在到达服务器后被正确的HTTP服务器进程处理。
如果我们以POST方法提交一个搜索请求给淘宝服务器那么最终在数据链路层构建出来的数据帧大概是这个样子这里假设IP数据包的大小没有超过链路层的最大传输单元。
App要发送的数据只是key=“a”这样一个JSON字符串每一层协议都会在上一层协议基础上添加一个头部信息最后封装成一个链路层的数据帧在网络上传输发送给淘宝的服务器。淘宝的服务器在收到这个数据帧后在通信协议的每一层进行校验检查确保数据准确后将头部信息删除再交给自己的上一层协议处理。HTTP应用服务器在最上层负责HTTP协议的处理最后将key=“a”这个JSON字符串交给淘宝工程师开发的应用程序处理。
LB负载均衡
HTTP请求到达淘宝数据中心的时候事实上也并不是直接发送给搜索服务器处理。因为对于淘宝这样日活用户数亿的互联网应用而言每时每刻都有大量的搜索请求到达数据中心为了使这些海量的搜索请求都能得到及时处理淘宝会部署一个由数千台服务器组成的搜索服务器集群共同为这些高并发的请求提供服务。
因此搜索请求到达数据中心的时候首先到达的是搜索服务器集群的负载均衡服务器也就是说DNS解析出来的是负载均衡服务器的IP地址。然后由负载均衡服务器将请求分发到搜索服务器集群中的某台服务器上。
负载均衡服务器的实现手段有很多种淘宝这样规模的应用通常使用Linux内核支持的链路层负载均衡。
这种负载均衡模式也叫直接路由模式在负载均衡服务器的Linux操作系统内核拿到数据包后直接修改数据帧中的mac地址将其修改为搜索服务器集群中某个服务器的mac地址然后将数据重新发送回服务器集群所在的局域网这个数据帧就会被某个真实的搜索服务器接收到。
负载均衡服务器和集群内的搜索服务器配置相同的虚拟IP地址也就是说在网络通信的IP层面负载均衡服务器变更mac地址的操作是透明的不影响TCP/IP的通信连接。所以真实的搜索服务器处理完搜索请求发送应答响应的时候就会直接发送回请求的App手机不会再经过负载均衡服务器。
小结
事实上这个搜索字符“a”的互联网之旅到这里还没有结束。淘宝搜索服务器程序在收到这个搜索请求的时候首先在本地缓存中查找是否有对应的搜索结果。如果没有会将这个搜索请求也就是这个字符发送给一个分布式缓存集群查找是否有对应的搜索结果。如果还没有才会将这个请求发送给一个更大规模的搜索引擎集群去查找。
这些分布式缓存集群或者搜索引擎集群都需要通过RPC远程过程调用的方式进行调用请求也就是需要通过网络进行服务调用这些网络服务也都是基于TCP协议进行编程的。
对于互联网应用,用户请求数据离开手机通过各种网络通信,最后到达数据中心的应用服务器进行最后的计算、处理,中间会经过许多环节,事实上,这些环节就构成了互联网系统的整体架构,所以通过网络通信,可以将整个互联网应用系统串起来,对理解互联网系统的技术架构很有帮助,在程序开发、运行过程中遇到各种网络相关问题,也可以快速分析问题原因,快速解决问题。
思考题
负载均衡就是将不同的网络请求数据分发到多台服务器上,每台服务器承担一部分请求负载压力,多台服务器共同承担外部并发请求的压力,除了文中提到的这种负载均衡实现方案,你还了解哪些方案呢?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,99 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
05 文件系统原理如何用1分钟遍历一个100TB的文件
文件及硬盘管理是计算机操作系统的重要组成部分让微软走上成功之路的正是微软最早推出的个人电脑PC操作系统这个操作系统就叫DOS即Disk Operating System硬盘操作系统。我们每天使用电脑都离不开硬盘硬盘既有大小的限制通常大一点的硬盘也不过几T又有速度限制快一点的硬盘也不过每秒几百M。
文件是存储在硬盘上的文件的读写访问速度必然受到硬盘的物理限制那么如何才能1分钟完成一个100T大文件的遍历呢
想要知道这个问题的答案,我们就必须知道文件系统的原理。
做软件开发时,必然要经常和文件系统打交道,而文件系统也是一个软件,了解文件系统的设计原理,可以帮助我们更好地使用文件系统,另外设计文件系统时的各种考量,也对我们自己做软件设计有诸多借鉴意义。
让我们先从硬盘的物理结构说起。
硬盘
硬盘是一种可持久保存、多次读写数据的存储介质。硬盘的形式主要两种,一种是机械式硬盘,一种是固态硬盘。
机械式硬盘的结构,主要包含盘片、主轴、磁头臂,主轴带动盘片高速旋转,当需要读写盘上的数据的时候,磁头臂会移动磁头到盘片所在的磁道上,磁头读取磁道上的数据。读写数据需要移动磁头,这样一个机械的动作,至少需要花费数毫秒的时间,这是机械式硬盘访问延迟的主要原因。
如果一个文件的数据在硬盘上不是连续存储的比如数据库的B+树文件,那么要读取这个文件,磁头臂就必须来回移动,花费的时间必然很长。如果文件数据是连续存储的,比如日志文件,那么磁头臂就可以较少移动,相比离散存储的同样大小的文件,连续存储的文件的读写速度要快得多。
机械式硬盘的数据就存储在具有磁性特质的盘片上,因此这种硬盘也被称为磁盘,而固态硬盘则没有这种磁性特质的存储介质,也没有电机驱动的机械式结构。
其中主控芯片处理端口输入的指令和数据,然后控制闪存颗粒进行数据读写。由于固态硬盘没有了机械式硬盘的电机驱动磁头臂进行机械式物理移动的环节,而是完全的电子操作,因此固态硬盘的访问速度远快于机械式硬盘。
但是,到目前为止固态硬盘的成本还是明显高于机械式硬盘,因此在生产环境中,最主要的存储介质依然是机械式硬盘。如果一个场景对数据访问速度、存储容量、成本都有较高要求,那么可以采用固态硬盘和机械式硬盘混合部署的方式,即在一台服务器上既有固态硬盘,也有机械式硬盘,以满足不同文件类型的存储需求,比如日志文件存储在机械式硬盘上,而系统文件和随机读写的文件存储在固态硬盘上。
文件系统
作为应用程序开发者我们不需要直接操作硬盘而是通过操作系统以文件的方式对硬盘上的数据进行读写访问。文件系统将硬盘空间以块为单位进行划分每个文件占据若干个块然后再通过一个文件控制块FCB记录每个文件占据的硬盘数据块。
这个文件控制块在Linux操作系统中就是inode要想访问文件就必须获得文件的inode信息在inode中查找文件数据块索引表根据索引中记录的硬盘地址信息访问硬盘读写数据。
inode中记录着文件权限、所有者、修改时间和文件大小等文件属性信息以及文件数据块硬盘地址索引。inode是固定结构的能够记录的硬盘地址索引数也是固定的只有15个索引。其中前12个索引直接记录数据块地址第13个索引记录索引地址也就是说索引块指向的硬盘数据块并不直接记录文件数据而是记录文件数据块的索引表每个索引表可以记录256个索引第14个索引记录二级索引地址第15个索引记录三级索引地址如下图
这样每个inode最多可以存储12+256+256*256+256*256*256个数据块如果每个数据块的大小为4k也就是单个文件最大不超过70G而且即使可以扩大数据块大小文件大小也要受单个硬盘容量的限制。这样的话对于我们开头提出的一分钟完成100T大文件的遍历Linux文件系统是无法完成的。
那么,有没有更给力的解决方案呢?
RAID
RAID即独立硬盘冗余阵列将多块硬盘通过硬件RAID卡或者软件RAID的方案管理起来使其共同对外提供服务。RAID的核心思路其实是利用文件系统将数据写入硬盘中不同数据块的特性将多块硬盘上的空闲空间看做一个整体进行数据写入也就是说一个文件的多个数据块可能写入多个硬盘。
根据硬盘组织和使用方式不同常用RAID有五种分别是RAID 0、RAID 1、RAID 10、RAID 5和RAID 6。
RAID 0将一个文件的数据分成N片同时向N个硬盘写入这样单个文件可以存储在N个硬盘上文件容量可以扩大N倍理论上读写速度也可以扩大N倍。但是使用RAID 0的最大问题是文件数据分散在N块硬盘上任何一块硬盘损坏就会导致数据不完整整个文件系统全部损坏文件的可用性极大地降低了。
RAID 1则是利用两块硬盘进行数据备份文件同时向两块硬盘写入这样任何一块硬盘损坏都不会出现文件数据丢失的情况文件的可用性得到提升。
RAID 10结合RAID 0和RAID 1将多块硬盘进行两两分组文件数据分成N片每个分组写入一片每个分组内的两块硬盘再进行数据备份。这样既扩大了文件的容量又提高了文件的可用性。但是这种方式硬盘的利用率只有50%,有一半的硬盘被用来做数据备份。
RAID 5针对RAID 10硬盘浪费的情况将数据分成N-1片再利用这N-1片数据进行位运算计算一片校验数据然后将这N片数据写入N个硬盘。这样任何一块硬盘损坏都可以利用校验片的数据和其他数据进行计算得到这片丢失的数据而硬盘的利用率也提高到N-1/N。
RAID 5可以解决一块硬盘损坏后文件不可用的问题那么如果两块文件损坏RAID 6的解决方案是用两种位运算校验算法计算两片校验数据这样两块硬盘损坏还是可以计算得到丢失的数据片。
实践中使用最多的是RAID 5数据被分成N-1片并发写入N-1块硬盘这样既可以得到较好的硬盘利用率也能得到很好的读写速度同时还能保证较好的数据可用性。使用RAID 5的文件系统比简单的文件系统文件容量和读写速度都提高了N-1倍但是一台服务器上能插入的硬盘数量是有限的通常是8块也就是文件读写速度和存储容量提高了7倍这远远达不到1分钟完成100T文件的遍历要求。
那么,有没有更给力的解决方案呢?
分布式文件系统
我们再回过头看下Linux的文件系统文件的基本信息也就是文件元信息记录在文件控制块inode中文件的数据记录在硬盘的数据块中inode通过索引记录数据块的地址读写文件的时候查询inode中的索引记录得到数据块的硬盘地址然后访问数据。
如果将数据块的地址改成分布式服务器的地址呢?也就是查询得到的数据块地址不只是本机的硬盘地址,还可以是其他服务器的地址,那么文件的存储容量就将是整个分布式服务器集群的硬盘容量,这样还可以在不同的服务器上同时并行读取文件的数据块,文件访问速度也将极大的加快。
这样的文件系统就是分布式文件系统分布式文件系统的思路其实和RAID是一脉相承的就是将数据分成很多片同时向N台服务器上进行数据写入。针对一片数据丢失就导致整个文件损坏的情况分布式文件系统也是采用数据备份的方式将多个备份数据片写入多个服务器以保证文件的可用性。当然也可以采用RAID 5的方式通过计算校验数据片的方式提高文件可用性。
我们以Hadoop分布式文件系统HDFS为例看下分布式文件系统的具体架构设计。
HDFS的关键组件有两个一个是DataNode一个是NameNode。
DataNode负责文件数据的存储和读写操作HDFS将文件数据分割成若干数据块Block每个DataNode存储一部分数据块这样文件就分布存储在整个HDFS服务器集群中。应用程序客户端Client可以并行对这些数据块进行访问从而使得HDFS可以在服务器集群规模上实现数据并行访问极大地提高了访问速度。在实践中HDFS集群的DataNode服务器会有很多台一般在几百台到几千台这样的规模每台服务器配有数块硬盘整个集群的存储容量大概在几PB到数百PB。
NameNode负责整个分布式文件系统的元数据MetaData管理也就是文件路径名、访问权限、数据块的ID以及存储位置等信息相当于Linux系统中inode的角色。HDFS为了保证数据的高可用会将一个数据块复制为多份缺省情况为3份并将多份相同的数据块存储在不同的服务器上甚至不同的机架上。这样当有硬盘损坏或者某个DataNode服务器宕机甚至某个交换机宕机导致其存储的数据块不能访问的时候客户端会查找其备份的数据块进行访问。
有了HDFS可以实现单一文件存储几百T的数据再配合大数据计算框架MapReduce或者Spark可以对这个文件的数据块进行并发计算。也可以使用Impala这样的SQL引擎对这个文件进行结构化查询在数千台服务器上并发遍历100T的数据1分钟都是绰绰有余的。
小结
文件系统从简单操作系统文件到RAID再到分布式文件系统其设计思路其实是具有统一性的。这种统一性一方面体现在文件数据如何管理也就是如何通过文件控制块管理文件的数据这个文件控制块在Linux系统中就是inode在HDFS中就是NameNode。
另一方面体现在如何利用更多的硬盘实现越来越大的文件存储需求和越来越快的读写速度需求也就是将数据分片后同时写入多块硬盘。单服务器我们可以通过RAID来实现多服务器则可以将这些服务器组成一个文件系统集群共同对外提供文件服务这时候数千台服务器的数万块硬盘以单一存储资源的方式对文件使用者提供服务也就是一个文件可以存储数百T的数据并在一分钟完成这样一个大文件的遍历。
思考题
在RAID 5的示意图中P表示校验位数据我们看到P不是单独存储在一块硬盘上而是分散在不同的盘上实际上校验数据P的存储位置是螺旋式地落在所有硬盘上的为什么要这样设计
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,145 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
06 数据库原理为什么PrepareStatement性能更好更安全
做应用开发的同学常常觉得数据库由DBA运维自己会写SQL就可以了数据库原理不需要学习。其实即使是写SQL也需要了解数据库原理比如我们都知道SQL的查询条件尽量包含索引字段但是为什么呢这样做有什么好处呢你也许会说使用索引进行查询速度快但是为什么速度快呢
此外我们在Java程序中访问数据库的时候有两种提交SQL语句的方式一种是通过Statement直接提交SQL另一种是先通过PrepareStatement预编译SQL然后设置可变参数再提交执行。
Statement直接提交的方式如下
statement.executeUpdate("UPDATE Users SET stateus = 2 WHERE userID=233");
PrepareStatement预编译的方式如下
PreparedStatement updateUser = con.prepareStatement("UPDATE Users SET stateus = ? WHERE userID = ?");
updateUser.setInt(1, 2);
updateUser.setInt(2,233);
updateUser.executeUpdate();
看代码似乎第一种方式更加简单但是编程实践中主要用第二种。使用MyBatis等ORM框架时这些框架内部也是用第二种方式提交SQL。那为什么要舍简单而求复杂呢
要回答上面这些问题,都需要了解数据库的原理,包括数据库的架构原理与数据库文件的存储原理。
数据库架构与SQL执行过程
我们先看看数据库架构原理与SQL执行过程。
关系数据库系统RDBMS有很多种但是这些关系数据库的架构基本上差不多包括支持SQL语法的Hadoop大数据仓库也基本上都是相似的架构。一个SQL提交到数据库经过连接器将SQL语句交给语法分析器生成一个抽象语法树ASTAST经过语义分析与优化器进行语义优化使计算过程和需要获取的中间数据尽可能少然后得到数据库执行计划执行计划提交给具体的执行引擎进行计算将结果通过连接器再返回给应用程序。
应用程序提交SQL到数据库执行首先需要建立与数据库的连接数据库连接器会为每个连接请求分配一块专用的内存空间用于会话上下文管理。建立连接对数据库而言相对比较重需要花费一定的时间因此应用程序启动的时候通常会初始化建立一些数据库连接放在连接池里这样当处理外部请求执行SQL操作的时候就不需要花费时间建立连接了。
这些连接一旦建立不管是否有SQL执行都会消耗一定的数据库内存资源所以对于一个大规模互联网应用集群来说如果启动了很多应用程序实例这些程序每个都会和数据库建立若干个连接即使不提交SQL到数据库执行也就会对数据库产生很大的压力。
所以应用程序需要对数据库连接进行管理,一方面通过连接池对连接进行管理,空闲连接会被及时释放;另一方面微服务架构可以大大减少数据库连接,比如对于用户数据库来说,所有应用都需要连接到用户数据库,而如果划分一个用户微服务并独立部署一个比较小的集群,那么就只有这几个用户微服务实例需要连接用户数据库,需要建立的连接数量大大减少。
连接器收到SQL以后会将SQL交给语法分析器进行处理语法分析器工作比较简单机械就是根据SQL语法规则生成对应的抽象语法树。
如果SQL语句中存在语法错误那么在生成语法树的时候就会报错比如下面这个例子中SQL语句里的where拼写错误MySQL就会报错。
mysql> explain select * from users whee id = 1;
ERROR 1064 (42000): You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'id = 1' at line 1
因为语法错误是在构建抽象语法树的时候发现的所以能够知道错误是发生在哪里。上面例子中虽然语法分析器不能知道whee是一个语法拼写错误因为这个whee可能是表名users的别名但是语法分析器在构建语法树到了id=1这里的时候就出错了所以返回的报错信息可以提示在'id = 1'附近有语法错误。
语法分析器生成的抽象语法树并不仅仅可以用来做语法校验它也是下一步处理的基础。语义分析与优化器会对抽象语法树进一步做语义优化也就是在保证SQL语义不变的前提下进行语义等价转换使最后的计算量和中间过程数据量尽可能小。
比如对于这样一个SQL语句其语义是表示从users表中取出每一个id和order表当前记录比较是否相等。
select f.id from orders f where f.user_id = (select id from users);
事实上这个SQL语句在语义上等价于下面这条SQL语句表间计算关系更加清晰。
select f.id from orders f join users u on f.user_id = u.id;
SQL语义分析与优化器就是要将各种复杂嵌套的SQL进行语义等价转化得到有限几种关系代数计算结构并利用索引等信息进一步进行优化。可以说各个数据库最黑科技的部分就是在优化这里了。
语义分析与优化器最后会输出一个执行计划由执行引擎完成数据查询或者更新。MySQL执行计划的例子如下
执行引擎是可替换的只要能够执行这个执行计划就可以了。所以MySQL有多种执行引擎也叫存储引擎可以选择缺省的是InnoDB此外还有MyISAM、Memory等我们可以在创建表的时候指定存储引擎。大数据仓库Hive也是这样的架构Hive输出的执行计划可以在Hadoop上执行。
使用PrepareStatement执行SQL的好处
好了了解了数据库架构与SQL执行过程之后让我们回到开头的问题应用程序为什么应该使用PrepareStatement执行SQL
这样做主要有两个好处。
一个是PrepareStatement会预先提交带占位符的SQL到数据库进行预处理提前生成执行计划当给定占位符参数真正执行SQL的时候执行引擎可以直接执行效率更好一点。
另一个好处则更为重要PrepareStatement可以防止SQL注入攻击。假设我们允许用户通过App输入一个名字到数据中心查找用户信息如果用户输入的字符串是Frank那么生成的SQL是这样的
select * from users where username = 'Frank';
但是如果用户输入的是这样一个字符串:
Frank';drop table users;--
那么生成的SQL就是这样的
select * from users where username = 'Frank';drop table users;--';
这条SQL提交到数据库以后会被当做两条SQL执行一条是正常的select查询SQL一条是删除users表的SQL。黑客提交一个请求然后users表被删除了系统崩溃了这就是SQL注入攻击。
如果用Statement提交SQL就会出现这种情况。
但如果用PrepareStatement则可以避免SQL被注入攻击。因为一开始构造PrepareStatement的时候就已经提交了查询SQL并被数据库预先生成好了执行计划后面黑客不管提交什么样的字符串都只能交给这个执行计划去执行不可能再生成一个新的SQL了也就不会被攻击了。
select * from users where username = ?;
数据库文件存储原理
回到文章开头提出的另一个问题,数据库通过索引进行查询能加快查询速度,那么,为什么索引能加快查询速度呢?
数据库索引使用B+树我们先看下B+树这种数据结构。B+树是一种N叉排序树树的每个节点包含N个数据这些数据按顺序排好两个数据之间是一个指向子节点的指针而子节点的数据则在这两个数据大小之间。
如下图。
B+树的节点存储在磁盘上每个节点存储1000多个数据这样树的深度最多只要4层就可存储数亿的数据。如果将树的根节点缓存在内存中则最多只需要三次磁盘访问就可以检索到需要的索引数据。
B+树只是加快了索引的检索速度,如何通过索引加快数据库记录的查询速度呢?
数据库索引有两种一种是聚簇索引聚簇索引的数据库记录和索引存储在一起上面这张图就是聚簇索引的示意图在叶子节点索引1和记录行r1存储在一起查找到索引就是查找到数据库记录。像MySQL数据库的主键就是聚簇索引主键ID和所在的记录行存储在一起。MySQL的数据库文件实际上是以主键作为中间节点行记录作为叶子节点的一颗B+树。
另一种数据库索引是非聚簇索引,非聚簇索引在叶子节点记录的就不是数据行记录,而是聚簇索引,也就是主键,如下图。
通过B+树在叶子节点找到非聚簇索引a和索引a在一起存储的是主键1再根据主键1通过主键聚簇索引就可以找到对应的记录r1这种通过非聚簇索引找到主键索引再通过主键索引找到行记录的过程也被称作回表。
所以通过索引,可以快速查询到需要的记录,而如果要查询的字段上没有建索引,就只能扫描整张表了,查询速度就会慢很多。
数据库除了索引的B+树文件,还有一些比较重要的文件,比如事务日志文件。
数据库可以支持事务,一个事务对多条记录进行更新,要么全部更新,要么全部不更新,不能部分更新,否则像转账这样的操作就会出现严重的数据不一致,可能会造成巨大的经济损失。数据库实现事务主要就是依靠事务日志文件。
在进行事务操作时,事务日志文件会记录更新前的数据记录,然后再更新数据库中的记录,如果全部记录都更新成功,那么事务正常结束,如果过程中某条记录更新失败,那么整个事务全部回滚,已经更新的记录根据事务日志中记录的数据进行恢复,这样全部数据都恢复到事务提交前的状态,仍然保持数据一致性。
此外像MySQL数据库还有binlog日志文件记录全部的数据更新操作记录这样只要有了binlog就可以完整复现数据库的历史变更还可以实现数据库的主从复制构建高性能、高可用的数据库系统我将会在架构模块进一步为你讲述。
小结
做应用开发需要了解RDBMS的架构原理但是关系数据库系统非常庞大复杂对于一般的应用开发者而言全面掌握关系数据库的各种实现细节代价高昂也没有必要。我们只需要掌握数据库的架构原理与执行过程数据库文件的存储原理与索引的实现方式以及数据库事务与数据库复制的基本原理就可以了。然后在开发工作中针对各种数据库问题去思考其背后的原理是什么应该如何处理。通过这样不断地思考学习不但能够让使用数据库方面的能力不断提高也能对数据库软件的设计理念也会有更深刻的认识自己软件设计与架构的能力也会得到加强。
思考题
索引可以提高数据库的查询性能,那么是不是应该尽量多的使用索引呢?如果不是,为什么?你还了解哪些改善数据库访问性能的技巧方法?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流进步。

View File

@ -0,0 +1,80 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
07 答疑 Java Web程序的运行时环境到底是怎样的
今天是第一模块的最后一讲。在这一讲中,我们主要讲了软件的基础原理,今天,我将会针对这一模块中大家提出的普遍问题进行总结和答疑,让我们整理一下,再接着学习下一个模块的内容。
问题一
@小美
既然一个JVM是一个进程JVM上跑TomcatTomcat上可以部署多个应用。这样的话每个跑在Tomcat上的应用是一个线程吗该怎么理解“如果一个应用crash了其他应用也会crash”
理解程序运行时的执行环境直观感受程序是如何运行的对我们开发和维护软件很有意义。我们以小美同学提的这个场景为例看下Java Web程序的运行时环境是什么样的来重新梳理下进程、线程、应用、Web容器、Java虚拟机和操作系统之间的关系。
我们用Java开发Web应用开发完成编译打包以后得到的是一个war包这个war包放入Tomcat的应用程序路径下启动Tomcat就可以通过HTTP请求访问这个Web应用了。
在这个场景下进程是哪个线程有哪些Web程序的war包是如何启动的HTTP请求如何被处理Tomcat在这里扮演的是什么角色JVM又扮演什么角色
首先我们是通过执行Tomcat的Shell脚本启动Tomcat的而在Shell脚本里其实启动的是Java虚拟机大概是这样一个Shell命令
java org.apache.catalina.startup.Bootstrap "$@" start
所以我们在Linux操作系统执行Tomcat的Shell启动脚本Tomcat启动以后其实在操作系统里看到的是一个JVM虚拟机进程。这个虚拟机进程启动以后加载class进来执行首先加载的就这个org.apache.catalina.startup.Bootstrap类这个类里面有一个main()函数是整个Tomcat的入口函数JVM虚拟机会启动一个主线程从这个入口函数开始执行。
主线程从Bootstrap的main()函数开始执行初始化Tomcat的运行环境这时候就需要创建一些线程比如负责监听80端口的线程处理客户端连接请求的线程以及执行用户请求的线程。创建这些线程的代码是Tomcat代码的一部分。
初始化运行环境之后Tomcat就会扫描Web程序路径扫描到开发的war包后再加载war包里的类到JVM。因为Web应用是被Tomcat加载运行的所以我们也称Tomcat为Web容器。
如果有外部请求发送到Tomcat也就是外部程序通过80端口和Tomcat进行HTTP通信的时候Tomcat会根据war包中的web.xml配置决定这个请求URL应该由哪个Servlet处理然后Tomcat就会分配一个线程去处理这个请求实际上就是这个线程执行相应的Servlet代码。
我们回到小美同学的问题Tomcat启动的时候启动的是JVM进程这个进程首先是执行JVM的代码而JVM会加载Tomcat的class执行并分配一个主线程这个主线程会从main函数开始执行。在主线程执行过程中Tomcat的代码还会启动其他一些线程包括处理HTTP请求的线程。
而我们开发的应用是一些class被Tomcat加载到这个JVM里执行所以即使这里有多个应用被加载也只是加载了一些class我们的应用被加载进来以后并没有增加JVM进程中的线程数也就是web应用本身和线程是没有关系的。
而Tomcat会根据HTTP请求URL执行应用中的代码这个时候可以理解成每个请求分配一个线程每个线程执行的都是我们开发的Web代码。如果Web代码中包含了创建新线程的代码Tomcat的线程在执行代码时就会创建出新的线程这些线程也会被操作系统调度执行。
如果Tomcat的线程在执行代码时代码抛出未处理的异常那么当前线程就会结束执行这时控制台看到的异常信息其实就是线程堆栈信息线程会把异常信息以及当前堆栈的方法都打印出来。事实上这个异常最后还是会被Tomcat捕获然后Tomcat会给客户端返回一个500错误。单个线程的异常不影响其他线程执行也就是不影响其他请求的处理。
但是如果线程在执行代码的时候抛出的是JVM错误比如OutOfMemoryError这个时候看起来是应用crash事实上是整个进程都无法继续执行了也就是进程crash了进程内所有应用都不会被继续执行了。
从JVM的角度看Tomcat和我们的Web应用是一样的都是一些Java代码但是Tomcat却可以加载执行Web代码而我们的代码又不依赖Tomcat这也是一个很有意思的话题。Tomcat是如何设计的我将会在下个模块讲述。
问题二
@黄海峰
有点难以想象“Hash表的时间复杂度为什么是O(1)”这个问题居然有阿里大厂的面试官觉得难。
这不是一个疑问,但其实是一个有意思的话题,我们花一点时间讨论下,也许会对你的职业规划有所启发。
文中这个故事大概发生在2009年整整十年前那个时候互联网还不像今天这样炙手可热提供的薪水也不像今天这样有竞争力也没有BAT这样的专有名词指代所谓的互联网巨头。那个时候计算机专业优秀的毕业生向往的是微软、Oracle、IBM这样的外资IT巨头退而求其次国内好的IT公司是联想、用友这些企业。
事实上那个时候在技术研发能力上互联网公司的技术能力也是落后传统企业的阿里巴巴最核心的数据存储依赖的是IBM、Oracle、EMC的解决方案即所谓的IOE。
所以在十年前的人才市场上国内互联网公司的形象一般是技术落后、薪水一般、加班严重、没有名气。可以说在人才市场的竞争中相比国内外的IT巨头是落于下风的。
我个人感觉互联网公司的崛起大概是在七八年前移动互联网开始出现互联网的渗透率得到加速BAT逐渐开始成为家喻户晓的名字名气大涨。其次经过前面时间的积累互联网企业主导的各种分布式技术、大数据技术、移动互联网技术、云计算技术的风头超过传统IT巨头阿里巴巴开始去IOE打造自己的云计算平台成为先进技术的代表者最主要的还是互联网企业盈利能力大幅增加能够提供市场上更有竞争力的薪水和股票。
于是互联网企业在人才市场上开始变得灼手可热BAT这些企业开始被人称为“大厂”。我们今天感觉这些互联网巨头高高在上人们纷纷向往。事实上这个现象出现的时间非常短。今天这些企业有足够的名气和资源将自己营造得高高在上可以在众多优秀的候选人中间挑来选去仅仅在十年前还不是这样的。
但是事情真正的吊诡之处还不在这里,当今这些互联网大厂的核心技术和业务模式在十几年前就已经奠定了,经过几年的摸索,大概在七八年前开始稳定成熟。也就是说,互联网企业的技术实力和商业能力是在这些企业还默默无闻的时候就发展起来的,而在这些企业成为明星之后,并没有什么突破性的进展。想想这些所谓的互联网大厂,最近几年,并没有什么值得称道的商业模式创新和技术创新。
也就是说十多年前可能是一些并不优秀的技术人员加入一个并不出名的公司然后这些人开创出了一个杰出的事业。用马云的话说就是“二流的人做一流的事”。然后公司开始挑选一流的人但结果似乎只是在维持这个事业并没有开创出更加杰出的事业。今天的BAT似乎成为当年的IBM历史好像进入了某种循环。
如果这就是事情的真相,我想你或许可以从其中得到某些启发,重新考虑下未来的职业规划。也许你会发现,你可能不需要追逐当前所谓的热门技术,而应该好好想想需要为自己的未来准备些什么。
最后,在第一模块中,我在每一篇文章的下面都留了几道思考题,各位同学在评论区都有很好的答案。但只有[第五篇文章],我似乎没有看到比较准确的答案,我在这里回答一下。
RAID5中校验位之所以螺旋式地落在所有硬盘上主要原因是因为如果将校验位记录在同一块硬盘上那么对于其他多块数据盘任何一块硬盘修改数据都需要修改这个校验盘上的校验数据也就是说对于有8块硬盘的RAID5阵列校验盘的数据写入压力是其他数据盘的7倍。而硬盘的频繁写入会导致硬盘寿命缩短校验盘会频繁损坏存储的整体可用性和维护性都会变差。
所以,作为软件架构师,当你在进行软件设计的时候,你不光需要考虑软件本身,你还需要了解软件的各种约束,硬盘的特性约束是一种,当然还有其他一些约束,我会在专栏的后面模块中继续讲解如何在各种约束下,设计出符合期望的软件系统。

View File

@ -0,0 +1,124 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
07 编程语言原理:面向对象编程是编程的终极形态吗?
软件架构师必须站在一个很高的高度去审视自己软件的架构,去理解自己的工作在更宏大的背景中的位置和作用,才能构建出一个经得起时间考验的软件系统。这个高度既包括技术的高度和深度,也包括对软件编程这件事认知的程度,比如对软件编程的历史和未来的理解,以及对自己工作的价值和使命感的理解。
计算机软件编程是个非常新兴的行业,程序员这一职业的出现不过半个多世纪,但是人类从事软件编程的探索却要久远得多,在计算机出现之前,甚至蒸汽机出现之前,人类就开始探索软件编程了。
最早开始编程探索的人是德国人莱布尼兹早在1700年代莱布尼兹就期望将各种事物都通过一种逻辑语言进行描述然后用一种可执行演算规则的机器进行计算就可以计算出事物的各种结果。这种思想其实和我们现代的软件编程与计算机已经差不多了莱布尼兹为了实现这个想法进行了大量的工作获得了丰硕的成果其中就包括了微积分和二进制。
但是人不能超越自己的时代莱布尼兹制造可编程计算机的梦想并没有成功。又过了100年法国人雅卡尔发明了一台可编程的织布机这种织布机通过读取纸带上的打孔进而控制织布机织出不同的图案。于是人们开始尝将打孔纸带用于计算机编程19世纪中叶当英国人Ada利用打孔纸带写出人类第一个软件程序的时候距能够运行这个程序的计算机的发明还有100年的时间而这个程序已经包含了循环和子程序。Ada因此被认为是人类第一个程序员准确的说是程序媛。科技发明受时代的限制天才们的想象力和聪明才智却可以超越时代。
人类发明制造计算机器有非常悠久的历史但是这些计算机器都是专门进行数值计算的加减乘除、微分积分等等。而从莱布尼兹、Ada到图灵、冯诺依曼这些现代计算机的开创者们试图创造的是一种通用的计算机这种计算机不是读取数值进行计算而是读取数据进行计算这些数据本身包含着计算的逻辑这个数据就是程序。当冯诺依曼在ENIAC计算机上输入第一个程序的时候标志着现代计算机的诞生也意味着软件编程这一新兴的行业即将出现。信息时代、互联网时代接踵而至人类开启了有史以来最大的一次科技革命。
现在我们编程已经习惯打开IDE编写程序代码然后编译执行或者解释执行认为编程就该如此。觉得那些不需要IDE只需要写字板或者Vim就可以编程的人就是大牛了。事实上最早的计算机编程非常麻烦程序员需要将电线编来编去输入数据以控制计算机的执行这也是编程这个词的由来。不过很快人们就将打孔纸带应用到计算机上编程的效率极大提升。
接近我们现在理解的软件编程要追溯到1949年随着第一台可存储程序的计算机的发明而出现程序员终于可以写代码了。这个阶段的程序要需要牢记计算机指令的二进制编码软件开发就是直接使用这些二进制指令进行编程每个计算机指令后面要带操作数操作数也是二进制编码所有这些二进制就是程序的代码由程序员输入到计算机中。
现在的程序员们光是听听早期软件编程这一番神操作怕是就崩溃了早期的程序员也意识到这一点宝贵的时间不应该浪费在记忆计算机指令的二进制编码上于是他们发明了汇编语言。和使用机器指令二进制编码唯一的不同就是汇编语言提供了机器指令助记符编程的时候机器指令二进制可以用助记符代替。但是软件编程依然需要使用计算机指令一个指令一个指令进行编程。因此机器指令二进制编程和汇编语言编程本质上都是面向机器的编程。汇编语言程序如下这已经是PC时代的汇编语言程序了早期计算机的汇编程序要更加古老。
2000: BMI $2009 ;若结果为负数,那么转地址2009
2002: BEQ $200C ;若 = 0,转 地址200C
2004: CLC ;这里说明 > 0
2005: ADC #$01
2007: TAY
2008: RTS
2009: LDY #$01
200B: RTS
200C: LDY #$00
200E: RTS
在计算机出现的早期,即使对程序员而言,计算机也是一个神奇的存在,同一台计算机,可以进行科学计算,也可以进行弹道轨迹计算,还可以进行财务核算计算。计算机强大、神奇且昂贵,程序员匍匐在计算机的脚下,使用计算机的指令进行编程,面向机器编程。但是随着计算机技术的不断发展和计算机的普及,程序员们逐渐意识到,计算机本身呆板而机械,真正强大、无所不能的是软件程序。程序员为了更高效地进行编程,应该采用一种对程序员更加友好的编程方式,一种更接近人类语言的编程语言,于是各种各样的高级编程语言出现了。
最早的高级编程语言是Fortran这是一种专门用于科学计算的高级语言诞生于1957年。但是真正主流的、被广泛使用的各种高级语言则诞生于1970年前后其中就包括C语言传说丹尼斯·里奇发明了C语言然后为了验证C语言的特性开发了一个Demo就是Unix操作系统。
那个年代美国正陷于越战的泥潭大量的美国青年魂断东南亚的丛林更多的美国青年则在国内聚集起来集会、示威、游行他们要独立、自由、和平他们有的人背着吉他从一个城市流浪到另一个城市而另一些人则坐在计算机终端前面摆脱了对计算机指令的束缚使用高级编程语言进行软件编程用另一种方式表达独立和自由。这些高级语言使用人类语言作为编程指令if…else…while…break…for…goto…这些语句更符合人类的习惯和逻辑思维方式由于这些语言关注逻辑处理过程所以也被称作面向过程的编程语言。事实上这些语言的本质是面向人的因此这一时期爆发的各种编程语言本质上说是面向人的编程语言准确的说是面向程序员的编程语言。Basic编程语言示例
INPUT "What is your name: ", UserName$
PRINT "Hello "; UserName$
DO
INPUT "How many stars do you want: ", NumStars
Stars$ = STRING$(NumStars, "*")
PRINT Stars$
DO
INPUT "Do you want more stars? ", Answer$
LOOP UNTIL Answer$ <> ""
Answer$ = LEFT$(Answer$, 1)
LOOP WHILE UCASE$(Answer$) = "Y"
PRINT "Goodbye "; UserName$
高级编程语言的普及极大地释放了程序员的自主性,软件开发迎来黄金时期,程序员的第一个极客时代到来,比尔·盖茨、乔布斯都是在那个时代成长起来的。但是人的欲望是没有止境的,人能做到的越多,想得到的也就越多,越来越庞大的软件开发计划被不断地提了出来。
但是面向过程的复杂性随着软件规模的膨胀以更快的速度膨胀。面向过程的软件关注逻辑流程,更容易被设计成面条式程序,长长的过程调用执行,像一根面条。而大型项目最后由这样一根一根面条组成,就成了一个毛线团,最后谁也理不清了。于是很多大型软件的开发过程开始失控,最终以失败告终,人们遇到了软件危机。
软件危机使人们开始重新审视软件编程这件事情的本质,除了一部分科学计算或者其他特定目的的软件,大部分的软件是为了解决现实世界的问题,企业的库存管理、银行的账务处理等等。所以,软件编程的本质是程序员用代码的方式使现实世界的事务运行在计算机上,计算机软件是为了解决现实世界的问题而开发出来的,那么软件编程这件事情应该关注的重点是客观世界的事物本身,而不是程序员的思维方式或者计算机的指令。
如果软件编程的重点是客观世界的事物本身那么编程语言如何才能更好地满足这一需求于是面向对象的编程语言应运而生。面向对象编程以对象作为软件编程的基本单位提出一切皆对象客观世界的用户、账号、商品是对象创建、组合、关联这些对象的工厂、适配器、观察者也是对象将所有这些对象分析、设计、开发出来一个软件系统就完成了这个软件系统灵活、强大最重要的是可以根据需求变化快速更新维护。Java对象代码示例
public class User {
private String name;
private Integer id;
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public Integer getId() {
return id;
}
public void setId(Integer id) {
this.id = id;
}
}
我们回顾一下现代编程技术的发展,发现大体经过面向机器编程,面向程序员编程,面向对象编程三个阶段,这正好对应马克思经济学关于劳动力的三个要素:劳动工具-计算机、劳动者-程序员、劳动对象-客观对象。编程从面向劳动工具进化到面向劳动者,再进化到面向对劳动对象。
面向对象编程似乎已经进化到编程这件事情哲学意义上的终点,是编程语言的终极形态。现实看起来也确实如此,最近三十年诞生的编程语言几乎全部都是面向对象的编程语言,面向对象一统天下。
但事实真的如此吗?回望历史我们站在上帝视角,一切都是如此清晰充满条理,凝望未来,我们还能如此笃定吗?
情况也许并非如此。事实上现实中的面向对象编程几乎从未实现人们期望中的面向对象编程。上面举的Java的User对象示例就是典型这是一个我们经常见到却又非常不面向对象的对象。这个对象只有属性没有行为现实中的User对象显然不是这样。也许有部分企业和部分程序员做到了真正的面向对象编程但是绝大多数程序员并没有做到面向对象编程普及几十年了如果大多数程序员依然做不到真正意义的面向对象编程是程序员的问题还是编程语言的问题
另一方面一些新出现的面向对象编程语言对对象的态度似乎也有点暧昧对象的边界和封装性开始模糊。go语言代码示例如下这里NokiaPhone和iPhone都实现了Phone接口但是并不是显式的。
type Phone interface {
call()
}
type NokiaPhone struct {
}
func (nokiaPhone NokiaPhone) call() {
fmt.Println("I am Nokia, I can call you!")
}
type IPhone struct {
}
func (iPhone IPhone) call() {
fmt.Println("I am iPhone, I can call you!")
}
而随着科技的不断发展,特别是大数据,人工智能以及移动互联网的发展,面向数据的编程需求越来越多,能够更好迎合这一需求的编程模型开始得到青睐,比如函数式编程。而极客型的程序员对强类型的面向对象编程越来越不感冒,他们希望在编程的时候能够得到更多的自由,编程语言的重心似乎重新出现面向程序员的趋势。
随着计算机性能的不断增强以及互联网应用对计算资源需求的不断增加如何更好地利用CPU的多核以及分布式集群的多服务器特性必须是软件编程以及架构设计时需要考虑的重要问题软件编程越来越多需要考虑机器本身相对应的反应式编程得到越来越多的关注。
辩证唯物主义告诉我们,事物发展轨迹是波浪式前进,螺旋式上升,有的时候似乎重新回到过去,但是却有了本质的区别和进步。软件编程的进化史还在继续,你是否对未来充满期待和信心?
小结
今天我们回顾了编程技术的发展通过这样的脉络梳理你能更清楚目前面对对象编程的来源更好地利用这一技术。如何利用面向对象编程的特性进行真正的面向对象编程而不是仅仅利用面向对象编程语言进行编程我将在第16篇讲解。
思考题
不同的编程语言在不同的应用场景中,各有自己的优势和劣势,你觉得哪些编程语言更适合用在哪些地方,适合处理哪些问题?
欢迎在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流进步一下。

View File

@ -0,0 +1,85 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
08 软件设计的方法论:软件为什么要建模?
我们开发的绝大多数软件都是用来解决现实问题的。通过计算机软件,可以用高效、自动化的方式去解决现实中低效的、手工的业务过程。
因此软件开发的本质就是在计算机的虚拟空间中根据现实需求创建一个新世界。阿里的工程师在创造一个“500平方公里”的交易市场百度的工程师在创造一个“一万层楼”的图书馆新浪微博的工程师在创造“两亿份报纸”腾讯的工程师在创造“数10亿个聊天茶室和棋牌室”。
现实世界纷繁复杂,庞大的软件系统也需要很多人合作,开发出众多的模块和代码。如何使软件系统准确反映现实世界的业务逻辑和需求?庞大的软件系统如何能在开发之初就使各个相关方对未来的软件蓝图有清晰的认知和认可,以便在开发过程中使不同工程师们能够有效合作,能够让软件的各个模块边界清晰、易于维护和部署?
这个由软件工程师创造出来的虚拟世界,是一个恢弘大气的罗马都城,还是一片垃圾遍地的棚户区,就看软件工程师如何设计它了,而软件设计的主要过程就是软件建模。
软件建模
所谓软件建模,就是为要开发的软件建造模型。模型是对客观存在的抽象,我们常说的数学建模,就是用数学公式作为模型,抽象表达事务的本质规律,比如著名的\(E=mc^2\),就是质量能量转换的物理规律的数学模型。除了数学公式是模型,还有一些东西也是模型,比如地图,就是对地理空间的建模。各种图纸,机械装置的图纸、电子电路的图纸、建筑设计的图纸,也是对物理实体的建模。而软件,也可以通过各种图进行建模。
通过建模,我们可以把握事物的本质规律和主要特征,正确建造模型和使用模型,以防在各种细节中迷失方向。软件系统庞大复杂,通过软件建模,我们可以抽象软件系统的主要特征和组成部分,梳理这些关键组成部分的关系,在软件开发过程中依照模型的约束开发,系统整体的格局和关系就会可控,相关人员从始至终都能清晰了解软件的蓝图和当前的进展,不同的开发工程师会很清晰自己开发的模块和其他同事工作内容的关系与依赖,并按照这些模型开发代码。
在软件开发中,有两个客观存在,一个是我们要解决的领域问题,比如我们要开发一个电子商务网站,那么客观的领域问题就是如何做生意,卖家如何管理商品、管理订单、服务用户,买家如何挑选商品,如何下订单,如何支付等等。对这些客观领域问题的抽象就是各种功能及其关系、各种模型对象及其关系、各种业务处理流程。
另一个客观存在就是最终开发出来的软件系统,这个软件系统也是客观存在的,软件由哪些主要类组成,这些类如何组织构成一个个的组件,这些类和组件之间的依赖关系如何,运行期如何调用,需要部署多少台服务器,服务器之间如何通信等。
所有这两个方面客观存在的抽象,就是我们的软件模型,一方面我们要对领域问题和软件系统进行分析、设计、抽象,另一方面,我们根据抽象出来的模型开发,实现出最终的软件系统。这就是软件开发的主要过程。而对领域问题和软件系统进行分析、设计和抽象的这个过程,我们专门划分出来,就是软件建模与设计。
4+1视图模型
软件建模比较知名的是4+1视图模型准确地说4+1模型不是一种软件建模工具和方法而是一种软件建模方法的方法即建模方法论。
4+1视图模型认为一个完整的软件设计模型应该包括5部分的内容
逻辑视图:描述软件的功能逻辑,由哪些模块组成,模块中包含哪些类,其依赖关系如何。
开发视图:包括系统架构层面的层次划分,包的管理,依赖的系统与第三方的程序包。开发视图某些方面和逻辑视图有一定重复性,不同视角看到的可能是同一个东西,开发视图中一个程序包,可能正好对应逻辑视图中的一个功能模块。
过程视图:描述程序运行期的进程、线程、对象实例,以及与此相关的并发、同步、通信等问题。
物理视图:描述软件如何安装并部署到物理的服务上,以及不同的服务器之间如何关联、通信。
场景视图针对具体的用例场景将上述4个视图关联起来一方面从业务角度描述功能流程如何完成一方面从软件角度描述相关组成部分如何互相依赖、调用。
在机械制图领域一个立体的零件进行制图设计必须要画三视图即正视图、侧视图、俯视图每张图都平面的但是组合起来就完整地描述了一个立体的机械零件。4+1视图模型也是通过多个角度描述软件系统的某个方面的抽象模型最终组合起来构成一个软件完整的模型。
三视图中,有些部分是重复的,而正是这些重复的部分将机械零件不同视角的细节关联起来,使看图者准确了解一个机械零件的完整结构。软件建模的时候也是如此,作为设计者,也许你觉得用多个视图描述软件模型会重复,但是阅读你的设计文档的人,正是通过这些重复,才将软件的各个部分关联起来,对软件整体形成完整的认识。
我在前面说4+1视图模型是一种方法论的原因就在于这5种视图模型主要指导我们应该从哪些方面去对我们的业务和软件建模。而具体如何去建模如何画模型则可以使用各种建模工具去完成重要的是这些模型能够构成一个整体从多个视角完整抽象软件系统的各个方面。
在实践中通常用来进行软件建模画图的工具是UML建模的时候也不一定要把5种视图都画出来。因为不同的软件类型其特点和设计关注点各不相同只要能向相关人员准确传递出自己的设计意图就可以了。
UML建模
UML即统一建模语言是目前最常用的建模工具使用UML可以实现4+1视图模型。这个名字的叫法也很有意思。
所谓统一指的是在UML之前软件建模工具和方法有很多种最后业界达成共识用UML统一软件建模工具。
所谓建模前面已经说过就是用UML对领域业务问题和软件系统进行设计抽象一个工具完成软件开发过程中的两个客观存在的建模。
所谓语言,这个比较有意思,为什么一个建模工具被称为语言?我们先看下语言的特点,语言一则用以沟通,通过语言人们得以交流;二则用以思考,即使我们不需要和别人交流,仅仅一个人进行思考的时候,其实我们头脑中还是默默在使用语言,有时候甚至不知不觉说出来。
UML也符合语言的这两个特点一方面满足设计阶段和各个相关方沟通的目的一方面可以用来思考即使软件开发过程不需要跟其他人沟通或者还没到沟通的时候依然可以使用UML建模画图帮助自己进行设计思考。
此外语言还有个特点就是有方言而对于UML就我观察不同公司不同团队使用UML都有自己的特点并不需要拘泥于UML的规范和语法只要不引起歧义在使用UML过程中对UML语法元素适当变通正是UML的最佳实践这正是UML的“方言”。
具体如何使用UML画图建模如何在不同的软件设计阶段用最合适的UML图形进行软件设计与建模以及如何将这些模型图整合起来构成一个完整的软件设计文档我会在下一篇文章中为你讲述。
小结
很多做软件开发同学的职业规划都是架构师,那么设想这样一个场景,如果公司安排你做架构师,要你在项目开发前期进行软件架构设计,你该如何开展你的工作,你该如何输出你的工作成果,你如何确定你的设计是否满足用户需求,你是否有把握最后交付的软件是满足要求的,是否有把握让团队每个工程师清晰了解自己的职责范围并有效地完成开发工作?
架构师的核心工作就是做好软件设计,软件设计是软件开发过程中的一个重要环节。如何进行软件设计,软件设计的输出是什么?软件设计过程中,如何和各个相关方沟通,使软件设计既能满足用户的功能需求,又能满足用户的非功能需求,也能满足用户的成本要求?此外,还要使开发工程师、测试工程师、运维工程师能够理解软件的整体架构、主要模块划分、关键技术实现、核心领域模型,使他们能做好自己的工作,使得软件在开发之初就对软件未来蓝图有个清晰的认识,从而使整个软件开发过程处于可控的范围之内?
以上这些诉求可以说是软件开发管理与技术的核心诉求,这些问题搞定了,软件的开发过程和结果也就都得到了保证。而要实现这些诉求,主要的手段就是软件建模,以及将这些软件模型组织成一篇有价值的设计文档。
思考题
回到我们上面描述的场景,如果公司安排你做架构师,你该如何开展你的工作,你向客户或者上司呈现的第一份工作成果是什么?你如何向团队开发人员呈现你的设计方案?
如果你暂时没有思路也不要紧,下一节我会为你完整描述一个解决思路。
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,109 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
09 软件设计实践如何使用UML完成一个设计文档
在上一篇文章中我们讨论了为什么要建模以及建模的4+1视图模型4+1视图模型很好地向我们展示了如何对一个软件的不同方面用不同的模型图进行建模与设计以完整描述一个软件的业务场景与技术实现。但是软件开发是有阶段性的在不同的开发阶段用不同的模型图描述业务场景与设计思路在不同阶段输出不同的设计文档对于现实的开发更有实践意义。
软件建模与设计过程可以拆分成需求分析、概要设计和详细设计三个阶段。UML规范包含了十多种模型图常用的有7种类图、序列图、组件图、部署图、用例图、状态图和活动图。下面我们讨论如何画这7种模型图以及如何在需求分析、概要设计、详细设计三个阶段使用这7种模型输出合适的设计文档。
类图
类图是最常见的UML图形用来描述类的特性和类之间的静态关系。
一个类包含三个部分类的名字、类的属性列表和类的方法列表。类之间有6种静态关系关联、依赖、组合、聚合、继承、泛化。把相关的一组类及其关系用一张图画出来就是类图。
类图主要是在详细设计阶段画,如果类图已经设计出来了,那么开发工程师只需要按照类图实现代码就可以了,只要类方法的逻辑不是太复杂,不同的工程师实现出来的代码几乎是一样的,这样可以保证软件的规范、统一。在实践中,我们通常不需要把一个软件所有的类都画出来,把核心的、有代表性的、有一定技术难度的类图画出来,一般就可以了。
除了在详细设计阶段画类图,在需求分析阶段,也可以将关键的领域模型对象用类图画出来,在这个阶段中,我们需要关注的是领域对象的识别及其关系,所以用简化的类图来描述,只画出类的名字及关系就可以了。
序列图
类图之外,另一种常用的图是序列图,类图描述类之间的静态关系,序列图则用来描述参与者之间的动态调用关系。
每个参与者有一条垂直向下的生命线,这条线用虚线表示,而参与者之间的消息也从上到下表示其调用的前后顺序关系,这正是序列图这个词的由来。每个生命线都有一个激活条,只有在参与者活动的时候才是激活的。
序列图通常用于表示对象之间的交互,这个对象可以是类对象,也可以是更大粒度的参与者,比如组件、服务器、子系统等,总之,只要是描述不同参与者之间交互的,都可以使用序列图,也就是说,在软件设计的不同阶段,都可以画序列图。
组件图
组件是比类粒度更大的设计元素一个组件中通常包含很多个类。组件图有的时候和包图的用途比较接近组件图通常用来描述物理上的组件比如一个JAR一个DLL等等。在实践中我们进行模块设计的时候更多的是用组件图。
组件图描述组件之间的静态关系,主要是依赖关系,如果想要描述组件之间的动态调用关系,可以使用组件序列图,以组件作为参与者,描述组件之间的消息调用关系。
因为组件的粒度比较粗,通常用以描述和设计软件的模块及其之间的关系,需要在设计早期阶段就画出来,因此组件图一般用在概要设计阶段。
部署图
部署图描述软件系统的最终部署情况,比如需要部署多少服务器,关键组件都部署在哪些服务器上。
部署图是软件系统最终物理呈现的蓝图,根据部署图,所有相关者,诸如客户、老板、工程师都能清晰地了解到最终运行的系统在物理上是什么样子,和现有的系统服务器的关系,和第三方服务器的关系。根据部署图,还可以估算服务器和第三方软件的采购成本。
因此部署图是整个软件设计模型中,比较宏观的一种图,是在设计早期就需要画的一种模型图。根据部署图,各方可以讨论对这个方案是否认可。只有对部署图达成共识,才能继续后面的细节设计。部署图主要用在概要设计阶段。
用例图
用例图主要用在需求分析阶段,通过反映用户和软件系统的交互,描述系统的功能需求。
图中小人形象的元素,被称为角色,角色可以是人,也可以是其他的系统。系统的功能可能会很复杂,所以一张用例图可能只包含其中一小部分功能,这些功能被一个矩形框框起来,这个矩形框被称为用例的边界。框里的椭圆表示一个一个的功能,功能之间可以调用依赖,也可以进行功能扩展。
因为用例图中功能描述比较简单,通常还需要对用例图配以文字说明,形成需求文档。
状态图
状态图用来展示单个对象生命周期的状态变迁。
业务系统中,很多重要的领域对象都有比较复杂的状态变迁,比如账号,有创建状态、激活状态、冻结状态、欠费状态等等各种状态。此外,用户、订单、商品、红包这些常见的领域模型都有多种状态。
这些状态的变迁描述可以在用例图中用文字描述,随着角色的各种操作而改变,但是用这种方式描述,状态散乱在各处,不要说开发的时候容易搞错,就是产品经理自己在设计的时候,也容易搞错对象的状态变迁。
UML的状态图可以很好地解决这一问题一张状态图描述一个对象生命周期的各种状态及其变迁的关系。如图所示门的状态有开opened、关closed和锁locked三种状态与变迁关系用一张状态图就可以搞定。
状态图要在需求分析阶段画,描述状态变迁的逻辑关系,在详细设计阶段也要画,这个时候,状态要用枚举值表示,以指导具体的开发。
活动图
活动图主要用来描述过程逻辑和业务流程。UML中没有流程图很多时候人们用活动图代替流程图。
活动图和早期流程图的图形元素也很接近,实心圆代表流程开始,空心圆代表流程结束,圆角矩形表示活动,菱形表示分支判断。
此外,活动图引入了一个重要的概念——泳道。活动图可以根据活动的范围,将活动根据领域、系统和角色等划分到不同的泳道中,使流程边界更加清晰。
活动图也比较有普适性,可以在需求分析阶段描述业务流程,也可以在概要设计阶段描述子系统和组件的交互,还可以在详细设计阶段描述一个类方法内部的计算流程。
使用合适的UML模型构建一个设计文档
UML模型图本身并不复杂几分钟的时间就可以学习一个模型图的画法。但难的是如何在合适的场合下用正确的UML模型表达自己的设计意图形成一套完整的软件模型进而组织成一个言之有物层次分明既可以指导开发又可以在团队内外达成共识的设计文档。
下面我们就从软件设计的不同阶段这一维度,重新梳理下如何使用正确的模型进行软件建模。
在需求分析阶段,主要是通过用例图来描述系统的功能与使用场景;对于关键的业务流程,可以通过活动图描述;如果在需求阶段就提出要和现有的某些子系统整合,那么可以通过时序图描述新系统和原来的子系统的调用关系;可以通过简化的类图进行领域模型抽象,并描述核心领域对象之间的关系;如果某些对象内部会有复杂的状态变化,比如用户、订单这些,可以用状态图进行描述。
在概要设计阶段,通过部署图描述系统最终的物理蓝图;通过组件图以及组件时序图设计软件主要模块及其关系;还可以通过组件活动图描述组件间的流程逻辑。
在详细设计阶段,主要输出的就是类图和类的时序图,指导最终的代码开发,如果某个类方法内部有比较复杂的逻辑,那么可以用画方法的活动图进行描述。
下一篇文章我会通过一个示例模板为你展示设计文档的写法和UML模型在文档中的应用。
小结
UML建模可以很复杂也可以很简单简单掌握类图、时序图、组件图、部署图、用例图、状态图、活动图这7种模型图根据场景的不同灵活在需求分析、概要设计和详细设计阶段绘制对应的模型图可以实实在在地做好软件建模搞好系统设计做一个掌控局面、引领技术团队的架构师。
画UML的工具可以是很复杂的用像EA这样的大型软件设计工具不过是收费的也可以是draw.io这样在线、免费的工具一般来说都建议先从简单的用起。
思考题
你现在开发的软件是否会用到UML建模呢如果没有你觉得应该画哪些UML模型又该如何画呢
欢迎你在评论区写下你的思考,我会和你一起交流,也欢迎把这篇文章分享给你的朋友或者同事,一起交流进步吧!

View File

@ -0,0 +1,151 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
10 软件设计的目的:糟糕的程序员比优秀的程序员差在哪里?
有人说在软件开发中优秀的程序员比糟糕的程序员的工作产出高100倍。这听起来有点夸张实际上我可能更悲观一点就我看来有时候后者的工作成果可能是负向的也就是说因为他的工作项目会变得更加困难代码变得更加晦涩难以维护工期因此推延各种莫名其妙改来改去的bug一再出现而且这种局面还会蔓延扩散连那些本来还好的代码模块也逐渐腐坏变烂最后项目难以为继以失败告终。
如果仅仅是看过程糟糕的程序员和优秀的程序员之间差别并没有那么明显。但是从结果看如果最后的结果是失败的那么产出就是负的和成功的项目比差别不是100倍而是无穷倍。
程序员的好坏,一方面体现在编程能力上,比如并不是每个程序员都有编写一个编译器程序的能力;另一方面,体现在程序设计方面,即使在没有太多编程技能要求的领域下,比如开发一个订单管理模块,只要需求明确,具有一定的编程经验,大家都能开发出这样一个程序,但优秀的程序员和糟糕的程序员之间,依然有巨大的差别。
在软件设计开发这个领域好的设计和坏的设计最大的差别就体现在应对需求变更的能力上。而好的程序员和差的程序员的一个重要区别就是对待需求变更的态度。差的程序员害怕需求变更因为每次针对需求变更而开发的代码都会导致无尽的bug好的程序员则欢迎需求变更因为他们一开始就针对需求变更进行了软件设计如果没有需求变更他们优秀的设计就没有了用武之地产生一拳落空的感觉。这两种不同态度的背后是设计能力的差异。
一个优秀的程序员一旦习惯设计、编写能够灵活应对需求变更的代码他就再也不会去编写那些僵化的、脆弱的、晦涩的代码了甚至仅仅是看这样的代码也会产生强烈的不舒服的感觉。记得一天下午一个技术不错的同事突然跟我请假说身体不舒服需要回去休息一下我看他脸色惨白有气无力就问他怎么了。他回答刚才给另一个组的同事review代码代码太恶心了看到中途去厕所吐了现在浑身难受需要休息。
惊讶吗但实际上糟糕的代码就是能产生这么大的威力这些代码在运行过程中使系统崩溃测试过程中使bug无法收敛越改越多开发过程使开发者陷入迷宫掉到一个又一个坑里而仅仅是看这些代码都会使阅读者头晕眼花。
糟糕的设计
糟糕的设计和代码有如下一些特点,这些特点共同铸造了糟糕的软件。
僵化性
软件代码之间耦合严重,难以改动,任何微小的改动都会引起更大范围的改动。一个看似微小的需求变更,却发现需要在很多地方修改代码。
脆弱性
比僵化性更糟糕的是脆弱性僵化导致任何一个微小的改动都能引起更大范围的改动而脆弱则是微小的改动容易引起莫名其妙的崩溃或者bug出现bug的地方看似与改动的地方毫无关联或者软件进行了一个看似简单的改动重新启动然后就莫名其妙地崩溃了。
如果说僵化性容易导致原本只用3个小时的工作变成了需要三天让程序员加班加点工作于是开始吐槽工作的话那么脆弱性导致的突然崩溃则让程序员开始抓狂怀疑人生。
牢固性
牢固性是指软件无法进行快速、有效地拆分。想要复用软件的一部分功能,却无法容易地将这部分功能从其他部分中分离出来。
目前微服务架构大行其道,但是,一些项目在没有解决软件牢固性的前提下,就硬着头皮进行微服务改造,结果可想而知。要知道,微服务是低耦合模块的服务化,首先需要的,就是低耦合的模块,然后才是微服务的架构。如果单体系统都做不到模块的低耦合,那么由此改造出来的微服务系统只会将问题加倍放大,最后就怪微服务了。
粘滞性
需求变更导致软件变更的时候,如果糟糕的代码变更方案比优秀的方案更容易实施,那么软件就会向糟糕的方向发展。
很多软件在设计之初有着良好的设计,但是随着一次一次的需求变更,最后变得千疮百孔,趋向腐坏。
晦涩性
代码首先是给人看的,其次是给计算机执行的。如果代码晦涩难懂,必然会导致代码的维护者以设计者不期望的方式对代码进行修改,导致系统腐坏变质。如果软件设计者期望自己的设计在软件开发和维护过程中一直都能被良好执行,那么在软件最开始的模块中就应该保证代码清晰易懂,后继者参与开发维护的时候才有章法可循。
一个设计腐坏的例子
软件如果是一次性的只运行一次就被永远丢弃那么无所谓设计能实现功能就可以了。然而现实中的软件大多数在其漫长的生命周期中都会被不断修改、迭代、演化和发展。淘宝从最初的小网站发展到今天有上万名程序员维护的大系统Facebook从扎克伯格一个人开发的小软件成为如今服务全球数十亿人的巨无霸无不经历过并将继续经历演化发展的过程。
接下来,我们就来看一个软件在需求变更过程中,不断腐坏的例子。
假设,你需要开发一个程序,将键盘输入的字符,输出到打印机上。任务看起来很简单,几行代码就能搞定:
void copy()
{
int c;
while ((c=readKeyBoard()) != EOF)
writePrinter(c);
}
你将程序开发出来,测试没有问题,很开心得发布了,其他程序员在他们的项目中依赖你的代码。过了几个月,老板忽然过来说,这个程序需要支持从纸带机读取数据,于是你不得不修改代码:
bool ptFlag = false;
//使用前请重置这个flag
void copy()
{
int c;
while ((c=(ptFlag? readPt() : readKeyBoard())) != EOF)
writePrinter(c);
}
为了支持从纸带机输入数据你不得不增加了一个布尔变量为了让其他程序员依赖你的代码的时候能正确使用这个方法你还添加一句注释。即便如此还是有人忘记了重设这个布尔值还有人搞错了这个布尔值的代表的意思运行时出来bug。
虽然没有人责怪你,但是这些问题还是让你很沮丧。这个时候,老板又来找你,说程序需要支持输出到纸带机上,你只好硬着头皮继续修改代码:
bool ptFlag = false;
bool ptFlag2 = false;
//使用前请重置这些flag
void copy()
{
int c;
while ((c=(ptFlag? readPt() : readKeyBoard())) != EOF)
ptFlag2? writePt(c) : writePrinter(c);
}
虽然你很贴心地把注释里的”这个flag“改成了”这些flag“但还是有更多的程序员忘记要重设这些奇怪的flag或者搞错了布尔值的意思因为依赖你的代码而导致的bug越来越多你开始犹豫是不是需要跑路了。
解决之道
从这个例子我们可以看到,一段看起来还比较简单、清晰的代码,只需要经过两次需求变更,就有可能变得僵化、脆弱、粘滞、晦涩。
这样的问题场景,在各种各样的软件开发场景中,随处可见。人们为了改善软件开发中的这些问题,使程序更加灵活、强壮、易于使用、阅读和维护,总结了很多设计原则和设计模式,遵循这些设计原则,灵活应用各种设计模式,就可以避免程序腐坏,开发出更强大灵活的软件。
比如针对上面这个例子,更加灵活,对需求更加有弹性的设计、编程方式可以是下面这样的:
public interface Reader {
int read();
}
public interface Writer {
void write(int c);
}
public class KeyBoardReader implements Reader {
public int read() {
return readKeyBoard();
}
}
public class Printer implements Writer {
public void write(int c) {
writePrinter(c);
}
}
Reader reader = new KeyBoardReader();
Writer writer = new Printer():
void copy() {
int c;
while(c=reader.read() != EOF)
writer(c);
}
我们通过接口将输入和输出抽象出来copy程序只负责读取输入并进行输出具体输入和输出实现则由接口提供这样copy程序就不会因为要支持更多的输入和输出设备而不停修改导致代码复杂使用困难。
所以你能看到,应对需求变更最好的办法就是一开始的设计就是针对需求变更的,并在开发过程中根据真实的需求变更不断重构代码,保持代码对需求变更的灵活性。
小结
我们在开始设计的时候就需要考虑程序如何应对需求变更,并因此指导自己进行软件设计,在开发过程中,需要敏锐地察觉到哪些地方正在变得腐坏,然后用设计原则去判断问题是什么,再用设计模式去重构代码解决问题。
我在面试过程中,考察候选人编程能力和编程技巧的主要方式就是问关于设计原则与设计模式的问题。
我将在”软件的设计原理“这一模块,主要讲如何用设计原则和设计模式去设计强壮、灵活、易复用、易维护的程序。希望这部分内容能够帮你掌握如何进行良好的程序设计。
思考题
你在软件开发实践中,是否曾经看到过一些糟糕的代码?这些糟糕的代码是否符合僵化、脆弱、牢固、粘滞、晦涩这些特点?这些代码给工作带来了怎样的问题呢?
欢迎你在评论区写下你的体验,我会和你一起交流,也欢迎你把这篇文章分享给你的朋友或者同事,一起交流进步一下。

View File

@ -0,0 +1,246 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
11 软件设计的开闭原则:如何不修改代码却能实现需求变更?
我在上篇文章讲到,软件设计应该为需求变更而设计,应该能够灵活、快速地满足需求变更的要求。优秀的程序员也应该欢迎需求变更,因为持续的需求变更意味着自己开发的软件保持活力,同时也意味着自己为需求变更而进行的设计有了用武之地,这样的话,技术和业务都进入了良性循环。
但是需求变更就意味着原来开发的功能需要改变,也意味着程序需要改变。如果是通过修改程序代码实现需求变更,那么代码一定会在不断修改的过程中变得面目全非,这也意味着代码的腐坏。
有没有办法不修改代码却能实现需求变更呢?
这个要求听起来有点玄幻,事实上却是软件设计需要遵循的最基本的原则:开闭原则。
开闭原则
开闭原则说:软件实体(模块、类、函数等等)应该对扩展是开放的,对修改是关闭的。
对扩展是开放的,意味着软件实体的行为是可扩展的,当需求变更的时候,可以对模块进行扩展,使其满足需求变更的要求。
对修改是关闭的,意味着当对软件实体进行扩展的时候,不需要改动当前的软件实体;不需要修改代码;对于已经完成的类文件不需要重新编辑;对于已经编译打包好的模块,不需要再重新编译。
通俗的说就是,软件功能可以扩展,但是软件实体不可以被修改。
功能要扩展,软件又不能修改,似乎是自相矛盾的,怎样才能做到不修改代码和模块,却能实现需求变更呢?
一个违反开闭原则的例子
在开始讨论前,让我们先看一个反面的例子。
假设我们需要设计一个可以通过按钮拨号的电话,核心对象是按钮和拨号器。那么简单的设计可能是这样的:
按钮类关联一个拨号器类,当按钮按下的时候,调用拨号器相关的方法。代码是这样的:
public class Button {
public final static int SEND_BUTTON = -99;
private Dialer dialer;
private int token;
public Button(int token, Dialer dialer) {
this.token = token;
this.dialer = dialer;
}
public void press() {
switch (token) {
case 0:
case 1:
case 2:
case 3:
case 4:
case 5:
case 6:
case 7:
case 8:
case 9:
dialer.enterDigit(token);
break;
case SEND_BUTTON:
dialer.dial();
break;
default:
throw new UnsupportedOperationException("unknown button pressed: token=" + token);
}
}
}
public class Dialer {
public void enterDigit(int digit) {
System.out.println("enter digit: " + digit);
}
public void dial() {
System.out.println("dialing...");
}
}
按钮在创建的时候可以创建数字按钮或者发送按钮执行按钮的press()方法的时候会调用拨号器Dialer的相关方法。这个代码能够正常运行完成需求设计似乎也没什么问题。
这样的代码我们司空见惯,但是它的设计违反了开闭原则:当我们想要增加按钮类型的时候,比如,当我们需要按钮支持星号(*)和井号(#的时候我们必须修改Button类代码当我们想要用这个按钮控制一个密码锁而不是拨号器的时候因为按钮关联了拨号器所以依然要修改Button类代码当我们想要按钮控制多个设备的时候还是要修改Button类代码。
似乎对Button类做任何的功能扩展都要修改Button类这显然违反了开闭原则对功能扩展是开放的对代码修改是关闭的。
违反开闭原则的后果是这个Button类非常僵硬当我们想要进行任何需求变更的时候都必须要修改代码。同时我们需要注意大段的switch/case语句是非常脆弱的当需要增加新的按钮类型的时候需要非常谨慎地在这段代码中找到合适的位置稍不小心就可能出现bug。粗暴一点说当我们在代码中看到else或者switch/case关键字的时候基本可以判断违反开闭原则了。
而且这个Button类也是难以复用的Button类强耦合了一个Dialer类在脆弱的switch/case代码段耦合调用了Dialer的方法即使Button类自身也将各种按钮类型耦合在一起当我想复用这个Button类的时候不管我需不需要一个Send按钮Button类都自带了这个功能。
所以这样的设计不要说不修改代码就能实现功能扩展即使我们想修改代码进行功能扩展里面也很脆弱稍不留心就掉到坑里了。这个时候你再回头审视Button的设计是不是就感觉到了代码里面腐坏的味道如果让你接手维护这些代码实现需求变更是不是头疼难受
很多设计开始看并没有什么问题,如果软件开发出来永远也不需要修改,也许怎么设计都可以,但是当需求变更来的时候,就会发现各种僵硬、脆弱。所以设计的优劣需要放入需求变更的场景中考察。当需求变更时发现当前设计的腐坏,就要及时进行重构,保持设计的强壮和代码的干净。
使用策略模式实现开闭原则
设计模式中很多模式其实都是用来解决软件的扩展性问题的,也是符合开闭原则的。我们用策略模式对上面的例子重新进行设计。
我们在Button和Dialer之间增加了一个抽象接口ButtonServerButton依赖ButtonServer而Dialer实现ButtonServer。
当Button按下的时候就调用ButtonServer的buttonPressed方法事实上是调用Dialer实现的buttonPressed方法这样既完成了Button按下的时候执行Dialer方法的需求又不会使Button依赖Dialer。Button可以扩展复用到其他需要使用Button的场景任何实现ButtonServer的类比如密码锁都可以使用Button而不需要对Button代码进行任何修改。
而且Button也不需要switch/case代码段去判断当前按钮类型只需要将按钮类型token传递给ButtonServer就可以了这样增加新的按钮类型的时候就不需要修改Button代码了。
策略模式是一种行为模式多个策略实现同一个策略接口编程的时候client程序依赖策略接口运行期根据不同上下文向client程序传入不同的策略实现。
在我们这个场景中client程序就是Button策略就是需要用Button控制的目标设备拨号器、密码锁等等ButtonServer就是策略接口。通过使用策略模式我们使Button类实现了开闭原则。
使用适配器模式实现开闭原则
Button符合开闭原则了但是Dialer又不符合开闭原则了因为Dialer要实现ButtonServer接口根据参数token决定执行enterDigit方法还是dial方法又需要if/else或者switch/case不符合开闭原则。
那怎么办?
这种情况可以使用适配器模式进行设计。适配器模式是一种结构模式,用于将两个不匹配的接口适配起来,使其能够正常工作。
不要由Dialer类直接实现ButtonServer接口而是增加两个适配器DigitButtonDialerAdapter、SendButtonDialerAdapter由适配器实现ButtonServer接口在适配器的buttonPressed方法中调用Dialer的enterDigit方法和dial方法而Dialer类保持不变Dialer类实现开闭原则。
在我们这个场景中Button需要调用的接口是buttonPressed和Dialer的方法不匹配如何在不修改Dialer代码的前提下使Button能够调用Dialer代码就是靠适配器适配器DigitButtonDialerAdapter和SendButtonDialerAdapter实现了ButtonServer接口使Button能够调用自己并在自己的buttonPressed方法中调用Dialer的方法适配了Dialer。
使用观察者模式实现开闭原则
通过策略模式和适配器模式我们使Button和Dialer都符合了开闭原则。但是如果要求能够用一个按钮控制多个设备比如按钮按下进行拨号的同时还需要扬声器根据不同按钮发出不同声音将来还需要根据不同按钮点亮不同颜色的灯。按照当前设计可能需要在适配器中调用多个设备增加设备要修改适配器代码又不符合开闭原则了。
怎么办?
这种情况可以用观察者模式进行设计:
这里ButtonServer被改名为ButtonListener表示这是一个监听者接口其实这个改名不重要仅仅是为了便于识别。因为接口方法buttonPressed不变ButtonListener和ButtonServer本质上是一样的。
重要的是在Button类里增加了成员变量List和成员方法addListener。通过addListener我们可以添加多个需要观察按钮按下事件的监听者实现当按钮需要控制新设备的时候只需要将实现了ButtonListener的设备实现添加到Button的List列表就可以了。
Button代码
public class Button {
private List<ButtonListener> listeners;
public Button() {
this.listeners = new LinkedList<ButtonListener>();
}
public void addListener(ButtonListener listener) {
assert listener != null;
listeners.add(listener);
}
public void press() {
for (ButtonListener listener : listeners) {
listener.buttonPressed();
}
}
}
Dialer代码和原始设计一样如果我们需要将Button和Dialer组合成一个电话Phone代码如下
public class Phone {
private Dialer dialer;
private Button[] digitButtons;
private Button sendButton;
public Phone() {
dialer = new Dialer();
digitButtons = new Button[10];
for (int i = 0; i < digitButtons.length; i++) {
digitButtons[i] = new Button();
final int digit = i;
digitButtons[i].addListener(new ButtonListener() {
public void buttonPressed() {
dialer.enterDigit(digit);
}
});
}
sendButton = new Button();
sendButton.addListener(new ButtonListener() {
public void buttonPressed() {
dialer.dial();
}
});
}
public static void main(String[] args) {
Phone phone = new Phone();
phone.digitButtons[9].press();
phone.digitButtons[1].press();
phone.digitButtons[1].press();
phone.sendButton.press();
}
}
观察者模式是一种行为模式解决一对多的对象依赖关系将被观察者对象的行为通知到多个观察者也就是监听者对象
在我们这个场景中Button是被观察者目标设备拨号器密码锁等是观察者被观察者和观察者通过Listener接口解耦合观察者的适配器通过调用被观察者的addListener方法将自己添加到观察列表当观察行为发生时被观察者会逐个遍历Listener List通知观察者
使用模板方法模式实现开闭原则
如果业务要求按下按钮的时候除了控制设备按钮本身还需要执行一些操作完成一些成员变量的状态更改不同按钮类型进行的操作和记录状态各不相同按照当前设计可能又要在Button的press方法中增加switch/case了
怎么办
这种情况可以用模板方法模式进行设计
在Button类中定义抽象方法onPress具体类型的按钮比如SendButton实现这个方法Button类中增加抽象方法onPress并在press方法中调用onPress方法
abstract void onPress();
public void press() {
onPress();
for (ButtonListener listener : listeners) {
listener.buttonPressed();
}
}
所谓模板方法模式就是在父类中用抽象方法定义计算的骨架和过程而抽象方法的实现则留在子类中
在我们这个例子中press方法就是模板press方法除了调用抽象方法onPress还执行通知监听者列表的操作这些抽象方法和具体操作共同构成了模板而在子类SendButton中实现这个抽象方法在这个方法中修改状态完成自己类型特有的操作这就是模板方法模式
通过模板方法模式每个子类可以定义自己在press执行时的状态操作无需修改Button类实现了开闭原则
小结
实现开闭原则的关键是抽象当一个模块依赖的是一个抽象接口的时候就可以随意对这个抽象接口进行扩展这个时候不需要对现有代码进行任何修改利用接口的多态性通过增加一个新实现该接口的实现类就能完成需求变更不同场景进行扩展的方式是不同的这时候就会产生不同的设计模式大部分的设计模式都是用来解决扩展的灵活性问题的
开闭原则可以说是软件设计原则的原则是软件设计的核心原则其他的设计原则更偏向技术性具有技术性的指导意义而开闭原则是方向性的在软件设计的过程中应该时刻以开闭原则指导审视自己的设计当需求变更的时候现在的设计能否不修改代码就可以实现功能的扩展如果不是那么就应该进一步使用其他的设计原则和设计模式去重新设计
更多的设计原则和设计模式我将在后面陆续讲解
思考题
我在观察者模式小节展示的Phone代码示例中并没有显式定义DigitButtonDialerAdapter和SendButtonDialerAdapter这两个适配器类但它们是存在的在哪里呢
欢迎在评论区写下你的思考我会和你一起交流也欢迎把这篇文章分享给你的朋友或者同事一起交流一下

View File

@ -0,0 +1,110 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
12 软件设计的依赖倒置原则:如何不依赖代码却可以复用它的功能?
在软件开发过程中我们经常会使用各种编程框架。如果你使用的是Java那么你会比较熟悉Spring、MyBatis等。事实上Tomcat、Jetty这类Web容器也可以归类为框架。框架的一个特点是当开发者使用框架开发一个应用程序时无需在程序中调用框架的代码就可以使用框架的功能特性。比如程序不需要调用Spring的代码就可以使用Spring的依赖注入MVC这些特性开发出低耦合、高内聚的应用代码。我们的程序更不需要调用Tomcat的代码就可以监听HTTP协议端口处理HTTP请求。
这些框架我们每天都在使用已经司空见惯所以觉得这种实现理所当然但是我们停下好好想一想难道不觉得这很神奇吗我们自己也写代码能够做到让其他工程师不调用我们的代码就可以使用我们的代码的功能特性吗就我观察大多数开发者是做不到的。那么Spring、Tomcat这些框架是如何做到的呢
依赖倒置原则
我们看下Spring、Tomcat这些框架设计的核心关键点也就是面向对象的基本设计原则之一依赖倒置原则。
依赖倒置原则是这样的:
高层模块不应该依赖低层模块,二者都应该依赖抽象。
抽象不应该依赖具体实现,具体实现应该依赖抽象。
软件分层设计已经是软件开发者的共识。事实上,最早引入软件分层设计,正是为了建立清晰的软件分层关系,便于高层模块依赖低层模块。一般的应用程序中,策略层会依赖方法层,业务逻辑层会依赖数据存储层。这正是我们日常软件设计开发的常规方式。
那么这种高层模块依赖低层模块的分层依赖方式有什么缺点呢?
一是维护困难,高层模块通常是业务逻辑和策略模型,是一个软件的核心所在。正是高层模块使一个软件区别于其他软件,而低层模块则更多的是技术细节。如果高层模块依赖低层模块,那么就是业务逻辑依赖技术细节,技术细节的改变将影响到业务逻辑,使业务逻辑也不得不做出改变。因为技术细节的改变而影响业务代码的改变,这是不合理的。
二是复用困难,通常越是高层模块,复用的价值越高。但如果高层模块依赖低层模块,那么对高层模块的依赖将会导致对底层模块的连带依赖,使复用变得困难。
事实上在我们软件开发中很多地方都使用了依赖倒置原则。我们在Java开发中访问数据库代码并不直接依赖数据库的驱动而是依赖JDBC。各种数据库的驱动都实现了JDBC当应用程序需要更换数据库的时候不需要修改任何代码。这正是因为应用代码高层模块不依赖数据库驱动而是依赖抽象JDBC而数据库驱动作为低层模块也依赖JDBC。
同样的Java开发的Web应用也不需要依赖Tomcat这样的Web容器只需要依赖J2EE规范Web应用实现J2EE规范的Servlet接口然后把应用程序打包通过Web容器启动就可以处理HTTP请求了。这个Web容器可以是Tomcat也可以是Jetty任何实现了J2EE规范的Web容器都可以。同样高层模块不依赖低层模块大家都依赖J2EE规范。
其他我们熟悉的MVC框架ORM框架也都遵循依赖倒置原则。
依赖倒置的关键是接口所有权的倒置
下面,我们进一步了解下依赖倒置原则的设计原理,看看如何在我们的程序设计开发中也能利用依赖倒置原则,开发出更少依赖、更低耦合、更可复用的代码。
这是我们习惯上的层次依赖示例,策略层依赖方法层,方法层依赖工具层。
这样分层依赖的一个潜在问题是,策略层对方法层和工具层是传递依赖的,下面两层的任何改动都会导致策略层的改动,这种传递依赖导致的级联改动可能会导致软件维护过程非常糟糕。
解决办法是利用依赖倒置的设计原则,每个高层模块都为它所需要的服务声明一个抽象接口,而低层模块则实现这些抽象接口,高层模块通过抽象接口使用低层模块。
这样,高层模块就不需要直接依赖低层模块,而变成了低层模块依赖高层模块定义的抽象接口,从而实现了依赖倒置,解决了策略层、方法层、工具层的传递依赖问题。
我们日常的开发通常也要依赖抽象接口而不是依赖具体实现。比如Web开发中Service层依赖DAO层并不是直接依赖DAO的具体实现而是依赖DAO提供的抽象接口。那么这种依赖是否是依赖倒置呢其实并不是依赖倒置原则中除了具体实现要依赖抽象最重要的是抽象是属于谁的抽象。
通常的编程习惯中低层模块拥有自己的接口高层模块依赖低层模块提供的接口比如方法层有自己的接口策略层依赖方法层的接口DAO层定义自己的接口Service层依赖DAO层定义的接口。
但是按照依赖倒置原则,接口的所有权是被倒置的,也就是说,接口被高层模块定义,高层模块拥有接口,低层模块实现接口。不是高层模块依赖底层模块的接口,而是低层模块依赖高层模块的接口,从而实现依赖关系的倒置。
在上面的依赖层次中每一层的接口都被高层模块定义由低层模块实现高层模块完全不依赖低层模块即使是低层模块的接口。这样低层模块的改动不会影响高层模块高层模块的复用也不会依赖低层模块。对于Service和DAO这个例子来说就是Service定义接口DAO实现接口这样才符合依赖倒置原则。
使用依赖倒置实现高层模块复用
依赖倒置原则适用于一个类向另一个类发送消息的场景。我们再看一个例子。
Button按钮控制Lamp灯泡按钮按下的时候灯泡点亮或者关闭。按照常规的设计思路我们可能会设计出如下的类图关系Button类直接依赖Lamp类。
这样设计的问题在于Button依赖Lamp那么对Lamp的任何改动都可能会使Button受到牵连做出联动的改变。同时我们也无法重用Button类比如我们期望通过Button控制一个电机的启动或者停止这种设计显然难以重用Button因为我们的Button还依赖着Lamp呢。
解决之道就是将这个设计中的依赖于实现,重构为依赖于抽象。这里的抽象就是:打开关闭目标对象。至于具体的实现细节,比如开关指令如何产生,目标对象是什么,都不重要。这是重构后的设计。
由Button定义一个抽象接口ButtonServer在ButtonServer中描述抽象打开、关闭目标对象。由具体的目标对象比如Lamp实现这个接口从而完成Button控制Lamp这一功能需求。
通过这样一种依赖倒置Button不再依赖Lamp而是依赖抽象ButtonServer而Lamp也依赖ButtonServer高层模块和低层模块都依赖抽象。Lamp的改动不会再影响Button而Button 可以复用控制其他目标对象比如电机或者任何由按钮控制的设备只要这些设备实现ButtonServer接口就可以了。
这里再强调一次抽象接口ButtonServer的所有权是倒置的它不属于底层模块Lamp而是属于高层模块Button。我们从命名上也能看的出来这正是依赖倒置原则的精髓所在。
这也正好回答了开头提出的问题如何使其他工程师不调用我们的代码就能使用我们代码的功能特性如果我们是Button的开发者那么只要其他工程师的代码实现了我们定义的ButtonServer接口Button就可以调用他们开发的Lamp或者其他任何由按钮控制的设备使设备代码拥有了按钮功能。设备的代码开发者不需要调用Button的代码就拥有了Button的功能而我们也不需要关心Button会在什么样的设备代码中使用所有实现ButtonServer的设备都可以使用Button功能。
所以依赖倒置原则也被称为好莱坞原则Dont call meI will call you. 即不要来调用我我会调用你。Tomcat、Spring都是基于这一原则设计出来的应用程序不需要调用Tomcat或者Spring这样的框架而是框架调用应用程序。而实现这一特性的前提就是应用程序必须实现框架的接口规范比如实现Servlet接口。
小结
依赖倒置原则通俗说就是,高层模块不依赖低层模块,而是都依赖抽象接口,这个抽象接口通常是由高层模块定义,低层模块实现。
遵循依赖倒置原则有这样几个编码守则:
应用代码中多使用抽象接口,尽量避免使用那些多变的具体实现类。
不要继承具体类,如果一个类在设计之初不是抽象类,那么尽量不要去继承它。对具体类的继承是一种强依赖关系,维护的时候难以改变。
不要重写override包含具体实现的函数。
依赖倒置原则最典型的使用场景就是框架的设计。框架提供框架核心功能比如HTTP处理MVC等并提供一组接口规范应用程序只需要遵循接口规范编程就可以被框架调用。程序使用框架的功能但是不调用框架的代码而是实现框架的接口被框架调用从而框架有更高的可复用性被应用于各种软件开发中。
我们的代码开发也可以按照依赖倒置原则,参考框架的设计理念,开发出灵活、低耦合、可复用的软件代码。
软件开发有时候像变魔术一样,常常表现出违反常识的特性,让人目眩神晕,而这正是软件编程这门艺术的魅力所在,感受到这种魅力,在自己的软件设计开发中体现出这种魅力,你就迈进了软件高手的大门。
思考题
除了文中的例子,还有哪些软件设计遵循了依赖倒置原则?这些软件中,底层模块和高层模块共同依赖的抽象是什么?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,189 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
13 软件设计的里氏替换原则:正方形可以继承长方形吗?
我们都知道,面向对象编程语言有三大特性:封装、继承、多态。这几个特性也许可以很快就学会,但是如果想要用好,可能要花非常多的时间。
通俗地说,接口(抽象类)的多个实现就是多态。多态可以让程序在编程时面向接口进行编程,在运行期绑定具体类,从而使得类之间不需要直接耦合,就可以关联组合,构成一个更强大的整体对外服务。绝大多数设计模式其实都是利用多态的特性玩的把戏,前面两篇学习的开闭原则和依赖倒置原则也是利用多态的特性。正是多态使得编程有时候像变魔术,如果能用好多态,可以说掌握了大多数的面向对象编程技巧。
封装是面向对象语言提供的特性将属性和方法封装在类里面。用好封装的关键是知道应该将哪些属性和方法封装在某个类里。一个方法应该封装进A类里还是B类里这个问题其实就是如何进行对象的设计。深入研究进去里面也有大量的学问。
继承似乎比多态和封装要简单一些,但实践中,继承的误用也很常见。
里氏替换原则
关于如何设计类的继承关系怎样使继承不违反开闭原则实际上有一个关于继承的设计原则叫里氏替换原则。这个原则说若对每个类型T1的对象o1都存在一个类型T2的对象o2使得在所有针对T2编写的程序P中用o1替换o2后程序P的行为功能不变则T1是T2的子类型。
上面这句话比较学术,通俗地说就是:子类型必须能够替换掉它们的基类型。
再稍微详细点说,就是:程序中,所有使用基类的地方,都应该可以用子类代替。
语法上,任何类都可以被继承。但是一个继承是否合理,从继承关系本身是看不出来的,需要把继承放在应用场景的上下文中去判断,使用基类的地方,是否可以用子类代替?
这里有一个马的继承设计:
白马和小马驹都是马,所以都继承了马。这样的继承是不是合理呢?我们需要放到应用场景中:
在这个场景中,是人骑马。根据这里的关系,继承了马的白马和小马驹,应该都可以代替马。白马代替马当然没有问题,人可以骑白马,但是小马驹代替马可能就不合适了,因为小马驹还没长好,无法被人骑。
那么很显然,作为子类的白马可以替换掉基类马,但是小马不能替换马,因此小马继承马就不太合适了,违反了里氏替换原则。
一个违反里氏替换规则的例子
我们再看这样一段代码:
void drawShape(Shape shape) {
if (shape.type == Shape.Circle ) {
drawCircle((Circle) shape);
} else if (shape.type == Shape.Square) {
drawSquare((Square) shape);
} else {
……
}
}
这里Circle和Square继承了基类Shape然后在应用的方法中根据输入Shape对象类型进行判断根据对象类型选择不同的绘图函数将图形画出来。这种写法的代码既常见又糟糕它同时违反了开闭原则和里氏替换原则。
首先看到这样的if/else代码就可以判断违反了开闭原则当增加新的Shape类型的时候必须修改这个方法增加else if代码。
其次也因为同样的原因违反了里氏替换原则当增加新的Shape类型的时候如果没有修改这个方法没有增加else if代码那么这个新类型就无法替换基类Shape。
要解决这个问题其实也很简单只需要在基类Shape中定义draw方法所有Shape的子类Circle、Square都实现这个方法就可以了
public abstract Shape{
public abstract void draw();
}
上面那段drawShape()代码也就可以变得更简单:
void drawShape(Shape shape) {
shape.draw();
}
这段代码既满足开闭原则:增加新的类型不需要修改任何代码。也满足里氏替换原则:在使用基类的这个方法中,可以用子类替换,程序正常运行。
正方形可以继承长方形吗?
一个继承设计是否违反里氏替换原则,需要在具体场景中考察。我们再看一个例子,假设我们现在有一个长方形的类,类定义如下:
public class Rectangle {
private double width;
private double height;
public void setWidth(double w) { width = w; }
public void setHeight(double h) { height = h; }
public double getWidth() { return width; }
public double getHeight() { return height; }
public double calculateArea() {return width * height;}
}
这个类满足我们的应用场景,在程序中多个地方被使用,一切良好。但是现在,我们有个新需求,我们还需要一个正方形。
通常我们判断一个继承是否合理会使用“IS A”进行判断类B可以继承类A我们就说类B IS A 类A比如白马IS A 马,轿车 IS A 车。
那正方形是不是IS A长方形呢通常我们会说正方形是一种特殊的长方形是长和宽相等的长方形从这个角度讲那么正方形IS A长方形也就是可以继承长方形。
具体实现上,我们只需要在设置长方形的长或宽的时候,同时设置长和宽就可以了,如下:
public class Square extends Rectangle {
public void setWidth(double w) {
width = height = w;
}
public void setHeight(double h) {
height = width = w;
}
}
这个正方形类设计看起来很正常,用起来似乎也没有问题。但是,真的没有问题吗?
继承是否合理我们需要用里氏替换原则来判断。之前也说过,是否合理并不是从继承的设计本身看,而是从应用场景的角度看。如果在应用场景中,也就是在程序中,子类可以替换父类,那么继承就是合理的,如果不能替换,那么继承就是不合理的。
这个长方形的使用场景是什么样的呢,我们看使用代码:
void testArea(Rectangle rect) {
rect.setWidth(3);
rect.setHeight(4);
assert 12 == rect.calculateArea();
}
显然在这个场景中如果用子类Square替换父类Rectangle计算面积calculateArea将返回16而不是12程序是不能正确运行的这样的继承不满足里氏替换原则是不合适的继承。
子类不能比父类更严格
类的公有方法其实是对使用者的一个契约,使用者按照这个契约使用类,并期望类按照契约运行,返回合理的值。
当子类继承父类的时候,根据里氏替换原则,使用者可以在使用父类的地方使用子类替换,那么从契约的角度,子类的契约就不能比父类更严格,否则使用者在用子类替换父类的时候,就会因为更严格的契约而失败。
在上面这个例子中,正方形继承了长方形,但是正方形有比长方形更严格的契约,即正方形要求长和宽是一样的。因为正方形有比长方形更严格的契约,那么在使用长方形的地方,正方形因为更严格的契约而无法替换长方形。
我们开头小马继承马的例子也是如此,小马比马有更严格的要求,即不能骑,那么小马继承马就是不合适的。
在类的继承中如果父类方法的访问控制是protected那么子类override这个方法的时候可以改成是public但是不能改成private。因为private的访问控制比protected更严格能使用父类protected方法的地方不能用子类的private方法替换否则就是违反里氏替换原则的。相反如果子类方法的访问控制改成public就没问题即子类可以有比父类更宽松的契约。同样子类override父类方法的时候不能将父类的public方法改成protected否则会出现编译错误。
通常说来,子类比父类的契约更严格,都是违反里氏替换原则的。
子类不应该比父类更严格,这个原则看起来既合理又简单,但是在实际中,如果你不严谨地审视自己的设计,是很可能违背里氏替换原则的。
在JDK中类Properties继承自类Hashtable类Stack继承自Vector。
这样的设计其实是违反里氏替换原则的。Properties要求处理的数据类型是String而它的父类Hashtable要求处理的数据类型是Object子类比父类的契约更严格Stack是一个栈数据结构数据只能后进先出而它的父类Vector是一个线性表子类比父类的契约更严格。
这两个类都是从JDK1就已经存在的我想如果能够重新再来JDK的工程师一定不会这样设计。这也从另一个方面说明不恰当的继承是很容易就发生的设计继承的时候需要更严谨的审视。
小结
实践中,当你继承一个父类仅仅是为了复用父类中的方法的时候,那么很有可能你离错误的继承已经不远了。一个类如果不是为了被继承而设计,那么最好就不要继承它。粗暴一点地说,如果不是抽象类或者接口,最好不要继承它。
如果你确实需要使用一个类的方法,最好的办法是组合这个类而不是继承这个类,这就是人们通常说的组合优于继承。比如这样:
Class A{
public Element query(int id){...}
public void modify(Element e){...}
}
Class B{
private A a;
public Element select(int id){
a.query(id);
}
public void modify(Element e){
a.modify(e);
}
}
如果类B需要使用类A的方法这时候不要去继承类A而是去组合类A也能达到使用类A方法的效果。这其实就是对象适配器模式了使用这个模式的话类B不需要继承类A一样可以拥有类A的方法同时还有更大的灵活性比如可以改变方法的名称以适应应用接口的需要。
当然,继承接口或者抽象类也并不保证你的继承设计就是正确的,最好的方法还是用里氏替换原则检查一下你的设计:使用父类的地方是不是可以用子类替换?
违反里氏替换原则不仅仅发生在设计继承的地方,也可能发生在使用父类和子类的地方,错误的使用方法,也可能导致程序违反里氏替换原则,使子类无法替换父类。
思考题
下面给你留一道思考题吧。
父类中有抽象方法f抛出异常AException
public abstract void f() throws AException;
子类override父类这个方法后想要将抛出的异常改为BException那么BException应该是AException的父类还是子类
为什么呢?请你用里氏替换原则说明,并在评论区写下你的思考,我会和你一起交流,也欢迎你把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,211 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
14 软件设计的单一职责原则:为什么说一个类文件打开最好不要超过一屏?
我在Intel工作期间曾经接手过一个大数据SQL引擎的开发工作[如何自己开发一个大数据SQL引擎]。我接手的时候这个项目已经完成了早期的技术验证和架构设计能够处理较为简单的标准SQL语句。后续公司打算成立一个专门的小组开发支持完整的标准SQL语法的大数据引擎然后进一步将这个产品商业化。
我接手后打开项目一看吓出一身冷汗这个项目只有几个类组成其中最大的一个类负责SQL语法的处理有近万行代码。代码中充斥着大量的switch/caseif/else代码而且方法之间互相调用各种全局变量传递。
只有输入测试SQL语句的时候在debug状态下才能理解每一行代码的意思。而这样的代码有1万行现在只实现了不到10%的SQL语法特性。如果将SQL的全部语法特性都实现了那么这个类该有多么大逻辑有多么复杂维护有多么困难而且还要准备一个团队来合作开发想想看几个人在这样一个大文件里提交代码想想都酸爽。
这是当时这个SQL语法处理类中的一个方法而这样的方法有上百个。
/**
* Digest all Not Op and merge into subq or normal filter semantics
* After this process there should not be any NOT FB in the FB tree.
*/
private void digestNotOp(FilterBlockBase fb, FBPrepContext ctx) {
// recursively digest the not op in a top down manner
if (fb.getType() == FilterBlockBase.Type.LOGIC_NOT) {
FilterBlockBase child = fb.getOnlyChild();
FilterBlockBase newOp = null;
switch (child.getType()) {
case LOGIC_AND:
case LOGIC_OR: {
// not (a and b) -> (not a) or (not b)
newOp = (child.getType() == Type.LOGIC_AND) ? new OpORFilterBlock()
: new OpANDFilterBlock();
FilterBlockBase lhsNot = new OpNOTFilterBlock();
FilterBlockBase rhsNot = new OpNOTFilterBlock();
lhsNot.setOnlyChild(child.getLeftChild());
rhsNot.setOnlyChild(child.getRightChild());
newOp.setLeftChild(lhsNot);
newOp.setRightChild(rhsNot);
break;
}
case LOGIC_NOT:
newOp = child.getOnlyChild();
break;
case SUBQ: {
switch (((SubQFilterBlock) child).getOpType()) {
case ALL: {
((SubQFilterBlock) child).setOpType(OPType.SOMEANY);
SqlASTNode op = ((SubQFilterBlock) child).getOp();
// Note: here we directly change the original SqlASTNode
revertRelationalOp(op);
break;
}
case SOMEANY: {
((SubQFilterBlock) child).setOpType(OPType.ALL);
SqlASTNode op = ((SubQFilterBlock) child).getOp();
// Note: here we directly change the original SqlASTNode
revertRelationalOp(op);
break;
}
case RELATIONAL: {
SqlASTNode op = ((SubQFilterBlock) child).getOp();
// Note: here we directly change the original SqlASTNode
revertRelationalOp(op);
break;
}
case EXISTS:
((SubQFilterBlock) child).setOpType(OPType.NOTEXISTS);
break;
case NOTEXISTS:
((SubQFilterBlock) child).setOpType(OPType.EXISTS);
break;
case IN:
((SubQFilterBlock) child).setOpType(OPType.NOTIN);
break;
case NOTIN:
((SubQFilterBlock) child).setOpType(OPType.IN);
break;
case ISNULL:
((SubQFilterBlock) child).setOpType(OPType.ISNOTNULL);
break;
case ISNOTNULL:
((SubQFilterBlock) child).setOpType(OPType.ISNULL);
break;
default:
// should not come here
assert (false);
}
newOp = child;
break;
}
case NORMAL:
// we know all normal filters are either UnCorrelated or
// correlated, don't have both case at present
NormalFilterBlock nf = (NormalFilterBlock) child;
assert (nf.getCorrelatedFilter() == null || nf.getUnCorrelatedFilter() == null);
CorrelatedFilter cf = nf.getCorrelatedFilter();
UnCorrelatedFilter ucf = nf.getUnCorrelatedFilter();
// It's not likely to result in chaining SqlASTNode
// as any chaining NOT FB has been collapsed from top down
if (cf != null) {
cf.setRawFilterExpr(
SqlXlateUtil.revertFilter(cf.getRawFilterExpr(), false));
}
if (ucf != null) {
ucf.setRawFilterExpr(
SqlXlateUtil.revertFilter(ucf.getRawFilterExpr(), false));
}
newOp = child;
break;
default:
}
fb.getParent().replaceChildTree(fb, newOp);
}
if (fb.hasLeftChild()) {
digestNotOp(fb.getLeftChild(), ctx);
}
if (fb.hasRightChild()) {
digestNotOp(fb.getRightChild(), ctx);
}
}
我当时就觉得,我太难了。
单一职责原则
软件设计有两个基本准则:低耦合和高内聚。我在前面讲到过的设计原则和后面将要讲的设计模式大多数都是关于如何进行低耦合设计的。而内聚性主要研究组成一个模块或者类的内部元素的功能相关性。
设计类的时候,我们应该把强相关的元素放在一个类里,而弱相关性的元素放在类的外边。保持类的高内聚性。具体设计时应该遵循这样一个设计原则:
一个类,应该只有一个引起它变化的原因。
这就是软件设计的单一职责原则。如果一个类承担的职责太多就等于把这些职责都耦合在一起。这种耦合会导致类很脆弱当变化发生的时候会引起类不必要的修改进而导致bug出现。
职责太多,还会导致类的代码太多。一个类太大,它就很难保证满足开闭原则,如果不得不打开类文件进行修改,大堆大堆的代码呈现在屏幕上,一不小心就会引出不必要的错误。
所以关于编程有这样一个最佳实践:一个类文件打开后,最好不要超过屏幕的一屏。这样做的好处是,一方面代码少,职责单一,可以更容易地进行复用和扩展,更符合开闭原则。另一方面,阅读简单,维护方便。
一个违反单一职责原则的例子
如何判断一个类的职责是否单一,就是看这个类是否只有一个引起它变化的原因。
我们看这样一个设计:
正方形类Rectangle有两个方法一个是绘图方法draw()一个是计算面积方法area()。有两个应用需要依赖这个Rectangle类一个是几何计算应用一个是图形界面应用。
绘图的时候程序需要计算面积但是计算面积的时候呢程序又不需要绘图。而在计算机屏幕上绘图又是一件非常麻烦的事情所以需要依赖一个专门的GUI组件包。
这样就会出现一个尴尬的情形当我需要开发一个几何计算应用程序的时候我需要依赖Rectangle类而Rectangle类又依赖了GUI包一个GUI包可能有几十M甚至数百M。本来几何计算程序作为一个纯科学计算程序主要是一些数学计算代码现在程序打包完却不得不把一个不相关的GUI包也打包进来。本来程序包可能只有几百K现在变成了几百M。
Rectangle类的设计就违反了单一职责原则。Rectangle承担了两个职责一个是几何形状的计算一个是在屏幕上绘制图形。也就是说Rectangle类有两个引起它变化的原因这种不必要的耦合不仅会导致科学计算应用程序庞大而且当图形界面应用程序不得不修改Rectangle类的时候还得重新编译几何计算应用程序。
比较好的设计是将这两个职责分离开来将Rectangle类拆分成两个类
将几何面积计算方法拆分到一个独立的类GeometricRectangle这个类负责图形面积计算area()。Rectangle只保留单一绘图职责draw()现在绘制长方形的时候可以使用计算面积的方法而几何计算应用程序则不需要依赖一个不相关的绘图方法以及一大堆的GUI组件。
从Web应用架构演进看单一职责原则
事实上Web应用技术的发展、演化过程也是一个不断进行职责分离实现单一职责原则的过程。在十几年前互联网应用早期的时候业务简单技术落后通常是一个类负责处理一个请求处理。
以Java为例就是一个Servlet完成一个请求处理。
这种技术方案有一个比较大的问题是请求处理以及响应的全部操作都在Servlet里Servlet获取请求数据进行逻辑处理访问数据库得到处理结果根据处理结果构造返回的HTML。这些职责全部都在一个类里完成特别是输出HTML需要在Servlet中一行一行输出HTML字符串类似这样
response.getWriter().println("<html> <head> <title>servlet程序</title> </head>");
这就比较痛苦了一个HMTL文件可能会很大在代码中一点一点拼字符串编程困难、维护困难总之就是各种困难。
于是后来就有了JSP如果说Servlet是在程序中输出HTML那么JSP就是在HTML调用程序。使用JSP开发Web程序大概是这样的
用户请求提交给JSP而JSP会依赖业务模型进行逻辑处理并将模型的处理结果包装在HTML里面构造成一个动态页面返回给用户。
使用JSP技术比Servlet更容易开发一点至少不用再痛苦地进行HTML字符串拼接了通常基于JSP开发的Web程序在职责上也会进行了一些最基本的分离构造页面的JSP和处理逻辑的业务模型分离。但是这种分离藕断丝连JSP中依然存在大量的业务逻辑代码代码和HTML标签耦合在一起职责分离得并不彻底。
真正将视图和模型分离的是后来出现的各种MVC框架MVC框架通过控制器将视图与模型彻底分离。视图中只包含HTML标签和模板引擎的占位符业务模型则专门负责进行业务处理。正是这种分离使得前后端开发成为两个不同的工种前端工程师只做视图模板开发后端工程师只做业务开发彼此之间没有直接的依赖和耦合各自独立开发、维护自己的代码。
有了MVC就可以顺理成章地将复杂的业务模型进行分层了。通过分层方式将业务模型分为业务层、服务层、数据持久层使各层职责进一步分离更符合单一职责原则。
小结
让我们回到文章的标题类的职责应该是单一的也就是引起类变化的原因应该只有一个这样类的代码通常也是比较少的。在开发实践中一个类文件在IDE打开最好不要超过一屏。
文章开头那个大数据SQL引擎的例子中SQL语法处理类的主要问题是太多功能职责被放在一个类里了。我在研读了原型代码并和开发原型的同事讨论后把这个类的职责从两个维度进行切分。一个维度是处理过程整个处理过程可以分为语法定义、语法变形和语法生成这三个环节每个SQL语句都需要依赖这三个环节。此外我在第一个模块的[第6篇文章]中讲到每个SQL语句在处理的时候都要生成一个SQL语法树而树是由很多节点组成的。从这个角度讲每个语法树节点都应该由一个单一职责的类处理。
我从这两个维度将原来有着近万行代码的类进行职责拆分拆分出几百个类每个类的职责都比较单一只负责一个语法树节点的一个处理过程。很多小的类只有几行代码打开后只占IDE中一小部分在显示器上一目了然阅读、维护都很轻松。类之间没有耦合而是在运行期根据SQL语法树将将这些代表语法节点的类构造成一颗树然后用设计模式中的组合模式进行遍历即可。
后续参与进来开发的同事只需要针对还不支持的SQL语法功能点开发相对应的语法转换器Transformer和语法树生成器Generator就可以了不需要对原来的类再进行修改甚至不需要调用原来的类。程序运行期在语法处理的时候遇到对应的语法节点交给相关的类处理就好了。
重构后虽然类的数量扩展了几百倍,但是代码总行数却少了很多,这是重构后的部分代码截图:
思考题
你在软件开发中有哪些可以用单一职责原则改进的设计呢?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,162 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
15 软件设计的接口隔离原则:如何对类的调用者隐藏类的公有方法?
我在阿里巴巴工作期间曾经负责开发一个统一缓存服务。这个服务要求能够根据远程配置中心的配置信息在运行期动态更改缓存的配置可能是将本地缓存更改为远程缓存也可能是更改远程缓存服务器集群的IP地址列表进而改变应用程序使用的缓存服务。
这就要求缓存服务的客户端SDK必须支持运行期配置更新而配置更新又会直接影响缓存数据的操作于是就设计出这样一个缓存服务Client类。
这个缓存服务Client类的方法主要包含两个部分一部分是缓存服务方法get()、put()、delete()这些这些方法是面向调用者的另一部分是配置更新方法reBuild(),这个方法主要是给远程配置中心调用的。
但是问题是Cache类的调用者如果看到reBuild()方法并错误地调用了该方法就可能导致Cache连接被错误重置导致无法正常使用Cache服务。所以必须要将reBuild()方法向缓存服务的调用者隐藏,而只对远程配置中心的本地代理开放这个方法。
但是reBuild()方法是一个public方法如何对类的调用者隐藏类的公有方法
接口隔离原则
我们可以使用接口隔离原则解决这个问题。接口隔离原则说:不应该强迫用户依赖他们不需要的方法。
那么如果强迫用户依赖他们不需要的方法,会导致什么后果呢?
一来用户可以看到这些他们不需要也不理解的方法这样无疑会增加他们使用的难度如果错误地调用了这些方法就会产生bug。二来当这些方法如果因为某种原因需要更改的时候虽然不需要但是依赖这些方法的用户程序也必须做出更改这是一种不必要的耦合。
但是如果一个类的几个方法之间本来就是互相关联的就像我开头举的那个缓存Client SDK的例子reBuild()方法必须要在Cache类里这种情况下 如何做到不强迫用户依赖他们不需要的方法呢?
我们先看一个简单的例子Modem类定义了4个主要方法拨号dail()挂断hangup()发送send()和接受recv()。这四个方法互相存在关联,需要定义在一个类里。
class Modem {
void dial(String pno);
void hangup();
void send(char c);
void recv();
}
但是对调用者而言某些方法可能完全不需要也不应该看到。比如拨号dail()和挂断hangup()这两个方式是属于专门的网络连接程序的通过网络连接程序进行拨号上网或者挂断网络。而一般的使用网络的程序比如网络游戏或者上网浏览器只需要调用send()和recv()发送和接收数据就可以了。
强迫只需要上网的程序依赖他们不需要的拨号与挂断方法只会导致不必要的耦合带来潜在的系统异常。比如在上网浏览器中不小心调用hangup()方法,就会导致整个机器断网,其他程序都不能连接网络。这显然不是系统想要的。
这种问题的解决方法就是通过接口进行方法隔离Modem类实现两个接口DataChannel接口和Connection接口。
DataChannel接口对外暴露send()和recv()方法这个接口只负责网络数据的发送和接收网络游戏或者网络浏览器只依赖这个接口进行网络数据传输。这些应用程序不需要依赖它们不需要的dail()和hangup()方法对应用开发者更加友好也不会导致因错误的调用而引发的程序bug。
而网络管理程序则可以依赖Connection接口提供显式的UI让用户拨号上网或者挂断网络进行网络连接管理。
通过使用接口隔离原则,我们可以将一个实现类的不同方法包装在不同的接口中对外暴露。应用程序只需要依赖它们需要的方法,而不会看到不需要的方法。
一个使用接口隔离原则优化的例子
我们再看一个使用接口隔离原则优化设计的例子。假设我们有个门Door对象这个Door对象可以锁上可以解锁还可以判断门是否打开。
class Door {
void lock();
void unlock();
boolean isDoorOpen();
}
现在我们需要一个TimedDoor一个有定时功能的门如果门开着的时间超过预定时间就会自动锁门。
我们已经有一个类Timer和一个接口TimerClient
class Timer {
void register(int timeout, TimerClient client);
}
interface TimerClient {
void timeout();
}
TimerClient可以向Timer注册调用register()方法设置超时时间。当超时时间到就会调用TimerClient的timeout()方法。
那么我们如何利用现有的Timer和TimerClient将Door改造成一个具有超时自动锁门的TimedDoor
比较容易且直观的办法就是修改Door类Door实现TimerClient接口这样Door就有了timeout()方法直接将Door注册给Timer当超时的时候Timer调用Door的timeout()方法在Door的timeout()方法里调用lock()方法,就可以实现超时自动锁门的操作。
class Door implements TimerClient {
void lock();
void unlock();
boolean isDoorOpen();
void timeout(){
lock();
}
}
这个方法简单直接也能实现需求但是问题在于使Door多了一个timeout()方法。如果这个Door类想要复用到其他地方那么所有使用Door的程序都不得不依赖一个它们可能根本用不着的方法。同时Door的职责也变得复杂违反了单一职责原则维护会变得更加困难。这样的设计显然是有问题的。
要想解决这些问题就应该遵循接口隔离原则。事实上这里有两个互相独立的接口一个接口是TimerClient用来供Timer进行超时控制一个接口是Door用来控制门的操作。虽然超时锁门的操作是一个完整的动作但是我们依然可以使用接口使其隔离。
一种方法是通过委托进行接口隔离具体方式就是增加一个适配器DoorTimerAdapter这个适配器继承TimerClient接口实现timeout()方法并将自己注册给Timer。适配器在自己的timeout()方法中调用Door的方法实现超时锁门的操作。
这种场合使用的适配器可能会比较重业务逻辑比较多如果超时的时候需要执行较多的逻辑操作那么适配器的timeout()方法就会包含很多业务逻辑超出了适配器的职责范围。而如果这些逻辑操作还需要使用Door的内部状态可能还需要迫使Door做出一些修改。
接口隔离更典型的做法是使用多重继承跟前面Modem的例子一样TimedDoor同时实现TimerClient接口和继承Door类在TimedDoor中实现timeout()方法并注册到Timer定时器中。
这样使用Door的程序就不需要被迫依赖timeout()方法Timer也不会看到Door的方法程序更加整洁易于复用。
接口隔离原则在迭代器设计模式中的应用
Java的数据结构容器类可以通过for循环直接进行遍历比如
List<String> ls = new ArrayList<String>();
ls.add("a");
ls.add("b");
for(String s: ls) {
System.out.println(s);
}
事实上这种for语法结构并不是标准的Java for语法标准的for语法在实现上述遍历时应该是这样的
for(Iterator<String> itr=ls.iterator();itr.hasNext();) {
System.out.println(itr.next());
}
之所以可以写成上面那种简单的形式就是因为Java提供的语法糖。Java5以后版本对所有实现了Iterable接口的类都可以使用这种简化的for循环进行遍历。而我们上面例子的ArrayList也实现了这个接口。
Iterable接口定义如下主要就是构造Iterator迭代器。
public interface Iterable<T> {
Iterator<T> iterator();
}
在Java5以前每种容器的遍历方法都不相同在Java5以后可以统一使用这种简化的遍历语法实现对容器的遍历。而实现这一特性主要就在于Java5通过Iterable接口将容器的遍历访问从容器的其他操作中隔离出来使Java可以针对这个接口进行优化提供更加便利、简洁、统一的语法。
小结
我们再回到开头那个例子,如何让缓存类的使用者看不到缓存重构的方法,以避免不必要的依赖和方法的误用。答案就是使用接口隔离原则,通过多重继承的方式进行接口隔离。
Cache实现类BazaCacheBaza是当时开发的统一缓存服务的产品名同时实现Cache接口和CacheManageable接口其中Cache接口提供标准的Cache服务方法应用程序只需要依赖该接口。而CacheManageable接口则对外暴露reBuild()方法,使远程配置服务可以通过自己的本地代理调用这个方法,在运行期远程调整缓存服务的配置,使系统无需重新部署就可以热更新。
最后的缓存服务SDK核心类设计如下
当一个类比较大的时候如果该类的不同调用者被迫依赖类的所有方法就可能产生不必要的耦合。对这个类的改动也可能会影响到它的不同调用者引起误用导致对象被破坏引发bug。
使用接口隔离原则,就是定义多个接口,不同调用者依赖不同的接口,只看到自己需要的方法。而实现类则实现这些接口,通过多个接口将类内部不同的方法隔离开来。
思考题
在你的开发实践中,你看到过哪些地方使用了接口隔离原则?你自己开发的代码,哪些地方可以用接口隔离原则优化?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,135 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
16 设计模式基础:不会灵活应用设计模式,你就没有掌握面向对象编程
我在面试的时候,喜欢问一个问题:“你比较熟悉哪些设计模式?”得到的回答很多时候是“单例”和“工厂”。老实说,这个回答不能让人满意。因为在我看来,单例和工厂固然是两种经典的设计模式,但是,这些创建类的设计模式并不能代表设计模式的精髓。
设计模式的精髓在于对面向对象编程特性之一——多态的灵活应用,而多态正是面向对象编程的本质所在。
面向对象编程的本质是多态
我在面试时,有时候会问“什么是对象”,得到的回答各种各样:“对象是数据与方法的组合。”“对象是领域的抽象。”“一切都是对象。”“对象的特性就是封装、继承、多态。”
这是一个比较开放的问题,这些回答可以说都是对的,都描述了对象的某个方面。那么,面向对象的本质是什么?面向对象编程和此前的面向过程编程的核心区别是什么?
我们常说,面向对象编程的主要特性是封装、继承和多态。那么这三个特性是否是面向对象编程区别于其他编程技术的关键呢?
我们先看封装面向对象编程语言都提供了类的定义。通过类我们可以将类的成员变量和成员方法封装起来还可以通过访问控制符private、protected、public控制成员变量和成员方法的可见性。
面向对象设计最基本的设计粒度就是类。类通过封装数据和方法构成一个相对独立的实体。类之间通过访问控制的约束互相调用这样就完成了面向对象的编程。但是封装并不是面向对象编程语言独有的。面向过程的编程语言比如C语言也可以实现封装特性在头文件.h里面定义方法而在实现文件.c文件里定义具体的结构体和方法实现从而使依赖.h头文件的外部程序只能够访问头文件里定义过的方法这样同样实现了变量和函数的封装以及访问权限的控制。
继承似乎是面向对象编程语言才有的特性事实上C语言也可以实现继承。如果A结构体包含B结构体的定义那么就可以理解成A继承了B定义在B结构上的方法可以直接通过强制类型转换执行A结构体的数据。
作为一种编程技巧,这种通过定义结构体从而实现继承特性的方法,在面向对象编程语言出现以前就已经经常被开发者使用了。
我们再来看多态因为有指向函数的指针多态事实上在C语言中也可以实现。但是使用指向函数的指针实现多态是非常危险的因为这种多态没有语法和编译方面的约束只能靠程序员之间约定一旦出现bug调试非常痛苦。因此在面向过程语言的开发中这种多态并不能频繁使用。
而在面向对象的编程语言中,多态非常简单:子类实现父类或者接口的抽象方法,程序使用抽象父类或者接口编程,运行期注入不同的子类,程序就表现出不同的形态,是为多态。
这样做最大的好处就是软件编程时的实现无关性,程序针对接口和抽象类编程,而不需要关心具体实现是什么。你应该还记得我在[第10篇]中讲到的案例:对于一个从输入设备拷贝字符到输出设备的程序,如果具体的设备实现和拷贝程序是耦合在一起的,那么当我们想要增加任何输入设备或者输出设备的时候,都必须要修改程序代码,最后这个拷贝程序将会变得越来越复杂、难于使用和理解。
而通过使用接口我们定义了Reader和Writer两个接口分别描述输入设备和输出设备拷贝程序只需要针对这两个接口编程而无需关心具体设备是什么程序可以保持稳定并且易于复用。具体设备在程序运行期创建然后传给拷贝程序传入什么具体设备就在什么具体设备上操作拷贝逻辑具体设备可以像插件一样灵活插拔使程序呈现多态的特性。
多态还颠覆了程序模块间的依赖关系。在习惯的编程思维中如果A模块调用B模块那么A模块必须依赖B模块也就是说在A模块的代码中必须import或者using B模块的代码。但是通过使用多态的特性我们可以将这个依赖关系倒置也就是A模块调用B模块A模块却可以不依赖B模块反而是B模块依赖A模块。
这就是我在[第12篇]中提到的依赖倒置原则。准确地说B模块也没有依赖A模块而是依赖A模块定义的抽象接口。A模块针对抽象接口编程调用抽象接口B模块实现抽象接口。在程序运行期将B模块注入A模块就使得A模块调用B模块却没有依赖B模块。
多态常常使面向对象编程表现出神奇的特性,而多态正是面向对象编程的本质所在。正是多态,使得面向对象编程和以往的编程方式有了巨大的不同。
设计模式的精髓是对多态的使用
但是就算知道了面向对象编程的多态特性,也很难利用好多态的特性,开发出强大的面向对象程序。到底如何利用好多态特性呢?人们通过不断的编程实践,总结了一系列的设计原则和设计模式。
我们前面几篇文章都是讨论设计原则的:
开闭原则:软件类、模块应该是对修改关闭的,而对扩展是开放的。通俗地说,就是要不修改代码就是实现需求的变更。
依赖倒置原则:高层模块不应该依赖低层模块,低层模块也不应该依赖高层模块,他们应该都依赖抽象,而这个抽象是高层定义的,逻辑上属于高层。
里氏替换原则:所有能够使用父类的地方,应该都可以用它的子类替换。但要注意的是,能不能替换是要看应用场景的,所以在设计继承的时候就要考虑运行期的场景,而不是仅仅考虑父类和子类的静态关系。
单一职责原则:一个类应该只有一个引起它变化的原因。实践中,就是类文件尽量不要太大,最好不要超过一屏。
接口隔离原则:不要强迫调用者依赖他们不需要的方法。方法主要是通过对接口的多重继承,一个类实现多个接口,不同接口服务不同调用者,不同调用者看到不同方法。
这些设计原则大部分都是和多态有关的,不过这些设计原则更多时候是具有指导性,编程的时候还需要依赖更具体的编程设计方法,这些方法就是设计模式。
模式是可重复的解决方案,人们在编程实践中发现,有些问题是重复出现的,虽然场景各有不同,但是问题的本质是一样的,而解决这些问题的方法也是可以重复使用的。人们把这些可以重复使用的编程方法称为设计模式。设计模式的精髓就是对多态的灵活应用。
我们以装饰模式为例看一下如何灵活应用多态特性。我们先定义一个接口AnyThing包含一个exe方法。
public interface AnyThing {
void exe();
}
然后多个类实现这个接口,装饰模式最大的特点是,通过类的构造函数传入一个同类对象,也就是每个类实现的接口和构造函数传入的对象是同一个接口。我们创建了三个类,如下:
public class Moon implements AnyThing {
private AnyThing a;
public Moon(AnyThing a) {
this.a = a;
}
public void exe() {
System.out.print("明月装饰了");
a.exe();
}
}
public class Dream implements AnyThing {
private AnyThing a;
public Dream(AnyThing a) {
this.a=a;
}
public void exe() {
System.out.print("梦装饰了");
a.exe();
}
}
public class You implements AnyThing {
private AnyThing a;
public You(AnyThing a) {
this.a = a;
}
public void exe() {
System.out.print("你");
}
}
设计这个几个类的时候,它们之间没有任何耦合,但是在创建对象的时候,我们通过构造函数的不同次序,可以使这几个类互相调用,从而呈现不同的装饰结果。
AnyThing t = new Moon(new Dream(new You(null)));
t.exe();
输出:明月装饰了梦装饰了你
AnyThing t = new Dream(new Moon(new You(null)));
t.exe();
输出:梦装饰了明月装饰了你
多态的迷人之处就在于你单独看类的代码的时候这些代码似乎平淡无奇但是一旦运行起来就会表现出纷繁复杂的特性。所以多态有时候也会带来一些代码阅读方面的困扰让面向对象编程的新手望而却步这也正是设计模式的作用这时候你仅仅通过类的名字比如Observer、Adapter你就能知道设计者在使用什么模式从而更快速理解代码。
小结
如果你只是使用面向对象编程语言进行编程,其实并不能说明你就掌握了面向对象编程。只有灵活应用设计模式,使程序呈现多态的特性,进而使程序健壮、灵活、清晰、易于维护和复用,这才是真正掌握了面向对象编程。
所以,下次再有面试官让你“聊聊设计模式”,也许你可以这样回答:“除了单例和工厂,我更喜欢适配器和观察者,还有,组合模式在处理树形结构的时候也非常有用。”适配器和观察者模式我在前面已经讲到。
设计模式是一个非常注重实践的编程技能,通过学习设计模式,我们可以体会到面向对象编程的种种精妙。真正掌握设计模式,需要在实践中不断使用它,让自己的程序更加健壮、灵活、清晰、易于复用和扩展。这个时候,面试聊设计模式更好的回答是:“我在工作中比较喜欢用模板模式和策略模式,上个项目中,为了解决不同用户使用不同推荐算法的问题,我……”
事实上设计模式不仅仅包括《设计模式》这本书里讲到的23种设计模式只要可重复用于解决某个问题场景的设计方案都可以被称为设计模式。关于设计模式还有一句很著名的话“精通设计模式就是忘了设计模式”有点像张无忌学太极。如果真正对设计模式融会贯通你的程序中无处不是设计模式也许你在三五行代码里就用了两三个设计模式。你自己就是设计模式的大师甚至还可以创建一些自己的设计模式。这个时候再去面试的时候面试官也不会再问你设计模式的问题了如果问了那么你说什么都是对的。
思考题
我在[第2篇文章]和本篇中都提到了可以使用组合模式遍历树,那么如何用组合模式遍历树呢?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,179 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
17 设计模式应用:编程框架中的设计模式
在绝大多数情况下我们开发应用程序的时候并不是从头开发的。比如我们用Java开发一个Web应用并不需要自己写代码监听HTTP 80端口不需要处理网络传输的二进制HTTP数据包参考[第4篇网络编程原理]);不需要亲自为每个用户请求分配一个处理线程(参考[01篇][操作系统原理]而是直接编写一个Servlet得到一个HttpRequest对象进行处理就可以了。我们甚至不需要从这个HttpRequest对象中获取请求参数通过Controller就可以直接得到一个由请求参数构造的对象。
我们写代码的时候只需要关注自己的业务逻辑就可以了。那些通用的功能比如监听HTTP端口从HTTP请求中构造参数对象是由一些通用的框架来完成的比如Tomcat或者Spring这些。
什么是框架
框架是对某一类架构方案可复用的设计与实现。所有的Web应用都需要监听HTTP端口也需要处理请求参数这些功能不应该在每个Web应用中都被重复开发而是应该以通用组件的形式被复用。
但并不是所有可被复用的组件都被称作框架框架通常规定了一个软件的主体结构可以支撑起软件的整体或者局部的架构形式。比如说Tomcat完成了Web应用请求响应的主体流程我们只需要开发Servlet完成请求处理逻辑构造响应对象就可以了所以Tomcat是一个框架。
还有一类可复用的组件不控制软件的主体流程也不支撑软件的整体架构比如Log4J提供了一个可复用的日志输出功能但是日志输出功能不是软件的主体结构所以我们通常不称Log4J为框架而称其为工具。
一般说来我们使用框架编程的时候需要遵循框架的规范编写代码。比如Tomcat、Spring、Mybatis、Junit等这些框架会调用我们编写的代码而我们编写的代码则会调用工具完成某些特定的功能比如输出日志进行正则表达式匹配等。
我在这里强调框架与工具的不同,并不是在咬文嚼字。我见过一些有进取心的工程师宣称自己设计开发了一个新框架,但是这个框架并没有提供一些架构性的规范,也没有支撑软件的主体结构,仅仅只是提供了一些功能接口供开发者调用,实际上,这跟我们对框架的期待相去甚远。
根据我们上面对框架的描述,当你设计一个框架的时候,你实际上是在设计一类软件的通用架构,并通过代码的方式实现出来。如果仅仅是提供功能接口供程序调用,是无法支撑起软件的架构的,也无法规范软件的结构。
那么如何设计、开发一个编程框架?
我在前面讲过开闭原则。框架应该满足开闭原则,即面对不同应用场景,框架本身是不需要修改的,需要对修改关闭。但是各种应用功能却是可以扩展的,即对扩展开放,应用程序可以在框架的基础上扩展出各种业务功能。
同时框架还应该满足依赖倒置原则即框架不应该依赖应用程序因为开发框架的时候应用程序还没有呢。应用程序也不应该依赖框架这样应用程序可以灵活更换框架。框架和应用程序应该都依赖抽象比如Tomcat提供的编程接口就是Servlet应用程序只需要实现Servlet接口就可以在Tomcat框架下运行不需要依赖Tomcat可以随时切换到Jetty等其他Web容器。
要知道,虽然设计原则可以指导框架开发,但是并没有给出具体的设计方法。事实上,框架正是利用各种设计模式开发出来的。编程框架与应用程序、设计模式、设计原则之间的关系如下图所示。
面向对象的设计目标是低耦合、高内聚。为了实现这个目标人们提出了一些设计原则主要有开闭原则、依赖倒置原则、里氏替换原则、单一职责原则、接口隔离原则。在这些原则之上人们总结了若干设计模式最著名的就是GoF23种设计模式还有Web开发同学非常熟悉的MVC模式等等。依照这些设计模式人们开发了各种编程框架。使用这些编程框架开发者可以简单、快速地开发各种应用程序。
Web容器中的设计模式
前面我们一再提到Tomcat是一个框架那么Tomcat与其他同类的Web容器是用什么设计模式实现的代码如何被Web容器执行程序中的请求对象HttpServletRequest是从哪里来的
Web容器主要使用了策略模式多个策略实现同一个策略接口。编程的时候Tomcat依赖策略接口而在运行期根据不同上下文Tomcat装载不同的策略实现。
这里的策略接口就是Servlet接口而我们开发的代码就是实现这个Servlet接口处理HTTP请求。J2EE规范定义了Servlet接口接口中主要有三个方法
public interface Servlet {
public void init(ServletConfig config) throws ServletException;
public void service(ServletRequest req, ServletResponse res)
throws ServletException, IOException;
public void destroy();
}
Web容器Container在装载我们开发的Servlet具体类的时候会调用这个类的init方法进行初始化。当有HTTP请求到达容器的时候容器会对HTTP请求中的二进制编码进行反序列化封装成ServletRequest对象然后调用Servlet的service方法进行处理。当容器关闭的时候会调用destroy方法做善后处理。
当我们开发Web应用的时候只需要实现这个Servlet接口开发自己的Servlet就可以了容器会监听HTTP端口并将收到的HTTP数据包封装成ServletRequest对象调用我们的Servlet代码。代码只需要从ServletRequest中获取请求数据进行处理计算就可以了处理结果可以通过ServletResponse返回给客户端。
这里Tomcat就是策略模式中的Client程序Servlet接口是策略接口。我们自己开发的具体Servlet类就是策略的实现。通过使用策略模式Tomcat这样的Web容器可以调用各种Servlet应用程序代码而各种Servlet应用程序代码也可以运行在Jetty等其他的Web容器里只要这些Web容器都支持Servlet接口就可以了。
Web容器完成了HTTP请求处理的主要流程指定了Servlet接口规范实现了Web开发的主要架构开发者只要在这个架构下开发具体Servlet就可以了。因此我们可以称Tomcat、Jetty这类Web容器为框架。
事实上我们开发具体的Servlet应用程序的时候并不会直接实现Servlet接口而是继承HttpServlet类HttpServlet类实现了Servlet接口。HttpServlet还用到了模板方法模式所谓模板方法模式就是在父类中用抽象方法定义计算的骨架和过程而抽象方法的实现则留在子类中。
这里父类是HttpServletHttpServlet通过继承GenericServlet实现了Servlet接口并在自己的service方法中针对不同的HTTP请求类型调用相应的方法HttpServlet的service方法就是一个模板方法。
protected void service(HttpServletRequest req, HttpServletResponse resp) throws ServletException, IOException
{
String method = req.getMethod();
if (method.equals(METHOD_GET)) {
doGet(req, resp);
} else if (method.equals(METHOD_HEAD)) {
long lastModified = getLastModified(req);
maybeSetLastModified(resp, lastModified);
doHead(req, resp);
} else if ...
由于HTTP请求有get、post等7种请求类型为了便于编程HttpServlet提供了这7种HTTP请求类型对应的执行方法doGet、doPost等等。service模板方法会判断HTTP请求类型根据不同请求类型执行不同方法。开发者只需要继承HttpServlet重写doGet、doPost等对应的HTTP请求类型方法就可以了不需要自己判断HTTP请求类型。Servlet相关的类关系如下
JUnit中的设计模式
JUnit是一个Java单元测试框架开发者只需要继承JUnit的TestCase开发自己的测试用例类通过JUnit框架执行测试就得到测试结果。
开发测试用例如下:
public class MyTest extends TestCase {
protected void setUp(){
...
}
public void testSome(){
...
}
protected void tearDown(){
...
}
}
每个测试用例继承TestCase在setUp方法里做一些测试初始化的工作比如装载测试数据什么的然后编写多个以test为前缀的方法这些方法就是测试用例方法还有一个tearDown方法在测试结束后进行一些收尾的工作比如删除数据库中的测试数据等。
那么我们写的这些测试用例如何被JUnit执行呢如何保证测试用例中这几个方法的执行顺序呢JUnit在这里也使用了模板方法模式测试用例的方法执行顺序被固定在JUnit框架的模板方法里。如下
public void runBare() throws Throwable {
setUp();
try{
runTest();
}
finally {
tearDown();
}
}
runBare是TestCase基类里的方法测试用例执行时实际上只执行runBare模板方法这个方法里先执行setUp方法然后执行各种test前缀的方法最后执行tearDown方法。保证每个测试用例都进行初始化及必要的收尾。而我们的测试类只需要继承TestCase基类实现setUp、tearDown以及其他测试方法就可以了。
此外一个软件的测试用例会有很多你可能希望执行全部这些用例也可能希望执行一部分用例JUnit提供了一个测试套件TestSuit管理、组织测试用例。
public static Test suite() {
TestSuite suite = new TestSuite("all");
suite.addTest(MyTest.class);//加入一个TestCase
suite.addTest(otherTestSuite);//加入一个TestSuite
return suite;
}
TestSuite可以通过addTest方法将多个TestCase类加入一个测试套件suite还可以将另一个TestSuite加入这个测试套件。当执行这个TestSuite的时候加入的测试类TestCase会被执行加入的其他测试套件TestSuite里面的测试类也会被执行如果其他的测试套件里包含了另外一些测试套件也都会被执行。
这也就意味着TestSuite是可以递归的事实上TestSuite是一个树状的结构如下
当我们从树的根节点遍历树,就可以执行所有这些测试用例。传统上进行树的遍历需要递归编程的,而使用组合模式,无需递归也可以遍历树。
首先TestSuite和TestCase都实现了接口Test
public interface Test {
public abstract void run(TestResult result);
}
当我们调用TestSuite的addTest方法时TestSuite会将输入的对象放入一个数组
private Vector<Test> fTests= new Vector<Test>(10);
public void addTest(Test test) {
fTests.add(test);
}
由于TestCase和TestSuite都实现了Test接口所以addTest的时候既可以传入TestCase也可以传入TestSuite。执行TestSuite的run方法时会取出这个数组的每个对象分别执行他们的run方法
public void run(TestResult result) {
for (Test each : fTests) {
test.run(result);
}
}
如果这个test对象是TestCase就执行测试如果这个test对象是一个TestSuite那么就会继续调用这个TestSuite对象的run方法遍历执行数组的每个Test的run方法从而实现了树的递归遍历。
小结
人们对架构师的工作有一种常见的误解,认为架构师做架构设计就可以了,架构师不需要写代码。事实上,架构师如果只是画画架构图,写写设计文档,那么如何保证自己的架构设计能被整个开发团队遵守、落到实处?
架构师应该通过代码落实自己的架构设计也就是通过开发编程框架约定软件开发的规范。开发团队依照框架的接口开发程序最终被框架调用执行。架构师不需要拿着架构图一遍一遍讲软件架构是什么只需要基于框架写个Demo大家就都清楚架构是什么了自己应该如何做了。
所以每个想成为架构师的程序员都应该学习如何开发框架。
思考题
在Tomcat和JUnit中还使用了其他一些设计模式在哪些地方使用什么设计模式解决什么问题你了解吗
欢迎你在评论区写下你的思考,我会和你一起交流,也欢迎你把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,134 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
18 反应式编程框架设计:如何使程序调用不阻塞等待,立即响应?
我们在专栏[第1篇]就讨论了为什么在高并发的情况下,程序会崩溃。主要原因是,在高并发的情况下,有大量用户请求需要程序计算处理,而目前的处理方式是,为每个用户请求分配一个线程,当程序内部因为访问数据库等原因造成线程阻塞时,线程无法释放去处理其他请求,这样就会造成请求堆积,不断消耗资源,最终导致程序崩溃。
这是传统的Web应用程序运行期的线程特性。对于一个高并发的应用系统来说总是同时有很多个用户请求到达系统的Web容器。Web容器为每个请求分配一个线程进行处理线程在处理过程中如果遇到访问数据库或者远程服务等操作就会进入阻塞状态这个时候如果数据库或者远程服务响应延迟就会出现程序内的线程无法释放的情况而外部的请求不断进来导致计算机资源被快速消耗最终程序崩溃。
那么有没有不阻塞线程的编程方法呢?
反应式编程
答案就是反应式编程。反应式编程本质上是一种异步编程方案在多线程协程、异步方法调用、异步I/O访问等技术基础之上提供了一整套与异步调用相匹配的编程模型从而实现程序调用非阻塞、即时响应等特性即开发出一个反应式的系统以应对编程领域越来越高的并发处理需求。
人们还提出了一个反应式宣言,认为反应式系统应该具备如下特质:
即时响应,应用的调用者可以即时得到响应,无需等到整个应用程序执行完毕。也就是说应用调用是非阻塞的。
回弹性,当应用程序部分功能失效的时候,应用系统本身能够进行自我修复,保证正常运行,保证响应,不会出现系统崩溃和宕机的情况。
弹性,系统能够对应用负载压力做出响应,能够自动伸缩以适应应用负载压力,根据压力自动调整自身的处理能力,或者根据自身的处理能力,调整进入系统中的访问请求数量。
消息驱动,功能模块之间,服务之间,通过消息进行驱动,完成服务的流程。
目前主流的反应式编程框架有RxJava、Reactor等它们的主要特点是基于观察者设计模式的异步编程方案编程模型采用函数式编程。
观察者模式和函数式编程有自己的优势但是反应式编程并不是必须用观察者模式和函数式编程。Flower就是一个纯消息驱动完全异步支持命令式编程的反应式编程框架。
下面我们就看看Flower如何实现异步无阻塞的调用以及Flower这个框架设计使用了什么样的设计原则与模式。
反应式编程框架Flower的基本原理
一个使用Flower框架开发的典型Web应用的线程特性如下图所示
当并发用户到达应用服务器的时候Web容器线程不需要执行应用程序代码它只是将用户的HTTP请求变为请求对象将请求对象异步交给Flower框架的Service去处理自身立刻就返回。因为容器线程不做太多的工作所以只需极少的容器线程就可以满足高并发的用户请求用户的请求不会被阻塞不会因为容器线程不够而无法处理。相比传统的阻塞式编程Web容器线程要完成全部的请求处理操作直到返回响应结果才能释放线程使用Flower框架只需要极少的容器线程就可以处理较多的并发用户请求而且容器线程不会阻塞。
用户请求交给基于Flower框架开发的业务Service对象以后Service之间依然是使用异步消息通讯的方式进行调用不会直接进行阻塞式的调用。一个Service完成业务逻辑处理计算以后会返回一个处理结果这个结果以消息的方式异步发送给它的下一个Service。
传统编程模型的Service之间如果进行调用如我们在专栏第一篇讨论的那样被调用的Service在返回之前调用的Service方法只能阻塞等待。而Flower的Service之间使用了AKKA Actor进行消息通信调用者的Service发送调用消息后不需要等待被调用者返回结果就可以处理自己的下一个消息了。事实上这些Service可以复用同一个线程去处理自己的消息也就是说只需要有限的几个线程就可以完成大量的Service处理和消息传输这些线程不会阻塞等待。
我们刚才提到通常Web应用主要的线程阻塞是因为数据库的访问导致的线程阻塞。Flower支持异步数据库驱动用户请求数据库的时候将请求提交给异步数据库驱动立刻就返回不会阻塞当前线程异步数据库访问连接远程的数据库进行真正的数据库操作得到结果以后将结果以异步回调的方式发送给Flower的Service进行进一步的处理这个时候依然不会有线程被阻塞。
也就是说使用Flower开发的系统在一个典型的Web应用中几乎没有任何地方会被阻塞所有的线程都可以被不断地复用有限的线程就可以完成大量的并发用户请求从而大大地提高了系统的吞吐能力和响应时间同时由于线程不会被阻塞应用就不会因为并发量太大或者数据库处理缓慢而宕机从而提高了系统的可用性。
Flower框架实现异步无阻塞一方面是利用了Web容器的异步特性主要是Servlet3.0以后提供的AsyncContext快速释放容器线程另一方面是利用了异步的数据库驱动以及异步的网络通信主要是HttpAsyncClient等异步通信组件。而Flower框架内核心的应用代码之间的异步无阻塞调用则是利用了Akka 的Actor模型实现。
Akka Actor的异步消息驱动实现如下
一个Actor向另一个Actor进行通讯的时候当前Actor就是一个消息的发送者sender当它想要向另一个Actor进行通讯的时候就需要获得另一个Actor的ActorRef也就是一个引用通过引用进行消息通信。而ActorRef收到消息以后会将这个消息放入到目标Actor的Mailbox里面去然后就立即返回了。
也就是说一个Actor向另一个Actor发送消息的时候不需要另一个Actor去真正地处理这个消息只需要将消息发送到目标Actor的Mailbox里面就可以了。自己不会被阻塞可以继续执行自己的操作而目标Actor检查自己的Mailbox中是否有消息如果有消息Actor则会在从Mailbox里面去获取消息对消息进行异步的处理而所有的Actor会共享线程这些线程不会有任何的阻塞。
反应式编程框架Flower的设计方法
但是直接使用Actor进行编程有很多不便Flower框架对Actor进行了封装开发者只需要编写一些细粒度的Service这些Service会被包装在Actor里面进行异步通信。
Flower Service例子如下
public class ServiceA implements Service<Message2> {
@Override
public Object process(Message2 message) {
return message.getAge() + 1;
}
}
每个Service都需要实现框架的Service接口的process方法process方法的输入参数就是前一个Service process方法的返回值这样只需要将Service编排成一个流程Service的返回值就会变成Actor的一个消息被发送给下一个Service从而实现Service的异步通信。
Service的流程编排有两种方式一种方式是编程实现如下
getServiceFlow().buildFlow("ServiceA", "ServiceB");
表示ServiceA的返回值将作为消息发送给ServiceB成为ServiceB的输入值这样两个Service就可以合作完成一些更复杂的业务逻辑。
Flower还支持可视化的Service流程编排像下面这张图一样编辑流程定义文件就可以开发一个异步业务处理流程。
那么这个Flower框架是如何实现的呢
Flower框架的设计也是基于前面专栏讨论过的[依赖倒置原则]。所有应用开发者实现的Service类都需要包装在Actor里面进行异步调用但是Actor不会依赖开发者实现的Service类开发者也不会依赖Actor类他们共同依赖一个Service接口这个接口是框架提供的如上面例子所示。
Actor与Service的依赖倒置关系如下图所示
每个Actor都依赖一个Service接口而具体的Service实现类比如MyService则实现这个Service接口。在运行期实例化Actor的时候这个接口被注入具体的Service实现类比如MyService。在Flower中调用MyService对象其实就是给包装MyService对象的Actor发消息Actor收到消息执行自己的onReceive方法在这个方法里Actor调用MyService的process方法并将onReceive收到的Message对象当做process的输入参数传入。
process处理完成后返回一个Object对象。Actor会根据编排好的流程获取MyService在流程中的下一个Service对应的Actor即nextServiceActor将process返回的Object对象当做消息发送给这个nextServiceActor。这样Service之间就根据编排好的流程异步、无阻塞地调用执行起来了。
反应式编程框架Flower的落地效果
Flower框架在部分项目中落地应用应用效果较为显著一方面Flower可以显著提高系统的性能。这是某个C#开发的系统使用Flower重构后的TPS性能比较使用Flower开发的系统TPS差不多是原来C#系统的两倍
另一方面Flower对系统可用性也有较大提升目前常见互联网应用架构如下图
用户请求通过网关服务器调用微服务完成处理那么当有某个微服务连接的数据库查询执行较慢时如图中服务1那么按照传统的线程阻塞模型就会导致服务1的线程都被阻塞在这个慢查询的数据库操作上。同样的网关线程也会阻塞在调用这个延迟比较厉害的服务1上。
最终的效果就是网关所有的线程都被阻塞即使是不调用服务1的用户请求也无法处理最后整个系统失去响应应用宕机。使用阻塞式编程实际的压测效果如下当服务1响应延迟出错率大幅飙升的时候通过网关调用正常的服务2的出错率也非常高。
使用Flower开发的网关实际压测效果如下同样服务1响应延迟出错率极高的情况下通过Flower网关调用服务2完全不受影响。
小结
事实上Flower不仅是一个反应式Web编程框架还是反应式的微服务框架。也就是说Flower的Service可以远程部署到一个Service容器里面就像我们现在常用的微服务架构一样。Flower会提供一个独立的Flower容器用于启动一些Service这些Service在启动了以后会向注册中心进行注册而且应用程序可以将这些分布式的Service进行流程编排得到一个分布式非阻塞的微服务系统。整体架构和主流的微服务架构很像主要的区别就是Flower的服务是异步的通过流程编排的方式进行服务调用而不是通过接口依赖的方式进行调用。
你可以点击这里进入Flower框架的源代码地址欢迎你参与Flower开发也欢迎将Flower应用到你的系统开发中。你对Flower有什么疑问也欢迎与我交流。
思考题
反应式编程虽然能带来性能和可用性方面的提升,但是也带来一些问题,你觉得反应式编程可能存在的问题有哪些?应该如何应对?你是否愿意在工作实践中尝试反应式编程?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流。

View File

@ -0,0 +1,95 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
19 组件设计原则:组件的边界在哪里?
软件的复杂度和它的规模成指数关系一个复杂度为100的软件系统如果能拆分成两个互不相关、同等规模的子系统那么每个子系统的复杂度应该是25而不是50。软件开发这个行业很久之前就形成了一个共识应该将复杂的软件系统进行拆分拆成多个更低复杂度的子系统子系统还可以继续拆分成更小粒度的组件。也就是说软件需要进行模块化、组件化设计。
事实上,早在打孔纸带编程时代,程序员们就开始尝试进行软件的组件化设计。那些相对独立,可以被复用的程序被打在纸带卡片上,放在一个盒子里。当某个程序需要复用这个程序组件的时候,就把这一摞纸带卡片从盒子里拿出来,放在要运行的其他纸带的前面或者后面,被光电读卡器一起扫描,一起执行。
其实我们现在的组件开发与复用跟这个也差不多。比如我们用Java开发会把独立的组件编译成一个一个的jar包相当于这些组件被封装在一个一个的盒子里。需要复用的时候程序只需要依赖这些jar包运行的时候只需要把这些依赖的jar包放在classpath路径下最后被JVM统一装载一起执行。
现在,稍有规模的软件系统一定被拆分成很多组件。正是因为组件化设计,我们才能开发出复杂的系统。
那么如何进行组件的设计呢?组件的粒度应该多大?如何对组件的功能进行划分?组件的边界又在哪里?
我们之前说过,软件设计的核心目标就是高内聚、低耦合。那么今天我们从这两个维度,看组件的设计原则。
组件内聚原则
组件内聚原则主要讨论哪些类应该聚合在同一个组件中,以便组件既能提供相对完整的功能,又不至于太过庞大。在具体设计中,可以遵循以下三个原则。
复用发布等同原则
复用发布等同原则是说,软件复用的最小粒度应该等同于其发布的最小粒度。也就是说,如果你希望别人以怎样的粒度复用你的软件,你就应该以怎样的粒度发布你的软件。这其实就是组件的定义了,组件是软件复用和发布的最小粒度软件单元。这个粒度既是复用的粒度,也是发布的粒度。
同时,如果你发布的组件会不断变更,那么你就应该用版本号做好组件的版本管理,以使组件的使用者能够知道自己是否需要升级组件版本,以及是否会出现组件不兼容的情况。因此,组件的版本号应该遵循一些大家都接受的约定。
这里有一个版本号约定建议供你参考,版本号格式:主版本号.次版本号.修订号。比如1.3.12在这个版本号中主版本号是1次版本号是3修订号是12。主版本号升级表示组件发生了不向前兼容的重大修订次版本号升级表示组件进行了重要的功能修订或者bug修复但是组件是向前兼容的修订号升级表示组件进行了不重要的功能修订或者bug修复。
共同封闭原则
共同封闭原则是说,我们应该将那些会同时修改,并且为了相同目的而修改的类放到同一个组件中。而将不会同时修改,并且不会为了相同目的而修改的类放到不同的组件中。
组件的目的虽然是为了复用,然而开发中常常引发问题的,恰恰在于组件本身的可维护性。如果组件在自己的生命周期中必须经历各种变更,那么最好不要涉及其他组件,相关的变更都在同一个组件中。这样,当变更发生的时候,只需要重新发布这个组件就可以了,而不是一大堆组件都受到牵连。
也许将某些类放入这个组件中对于复用是便利的、合理的,但如果组件的复用与维护发生冲突,比如这些类将来的变更和整个组件将来的变更是不同步的,不会由于相同的原因发生变更,那么为了可维护性,应该谨慎考虑,是不是应该将这些类和组件放在一起。
共同复用原则
共同复用原则是说,不要强迫一个组件的用户依赖他们不需要的东西。
这个原则一方面是说我们应该将互相依赖共同复用的类放在一个组件中。比如说一个数据结构容器组件提供数组、Hash表等各种数据结构容器那么对数据结构遍历的类、排序的类也应该放在这个组件中以使这个组件中的类共同对外提供服务。
另一方面,这个原则也说明,如果不是被共同依赖的类,就不应该放在同一个组件中。如果不被依赖的类发生变更,就会引起组件变更,进而引起使用组件的程序发生变更。这样就会导致组件的使用者产生不必要的困扰,甚至讨厌使用这样的组件,也造成了组件复用的困难。
其实,以上三个组件内聚原则相互之间也存在一些冲突,比如共同复用原则和共同闭包原则,一个强调易复用,一个强调易维护,而这两者是有冲突的。因此这些原则可以用来指导组件设计时的考量,但要想真正做出正确的设计决策,还需要架构师自己的经验和对场景的理解,对这些原则进行权衡。
组件耦合原则
组件内聚原则讨论的是组件应该包含哪些功能和类,而组件耦合原则讨论组件之间的耦合关系应该如何设计。组件耦合关系设计也应该遵循三个原则。
无循环依赖原则
无循环依赖原则说组件依赖关系中不应该出现环。如果组件A依赖组件B组件B依赖组件C组件C又依赖组件A就形成了循环依赖。
很多时候循环依赖是在组件的变更过程中逐渐形成的组件A版本1.0依赖组件B版本1.0后来组件B升级到1.1升级的某个功能依赖组件A的1.0版本,于是形成了循环依赖。如果组件设计的边界不清晰,组件开发设计缺乏评审,开发者只关注自己开发的组件,整个项目对组件依赖管理没有统一的规则,很有可能出现循环依赖。
而一旦系统内出现组件循环依赖系统就会变得非常不稳定。一个微小的bug都可能导致连锁反应在其他地方出现莫名其妙的问题有时候甚至什么都没做头一天还好好的系统第二天就启动不了了。
在有严重循环依赖的系统内开发代码,整个技术团队就好像在焦油坑里编程,什么也不敢动,也动不了,只有焦躁和沮丧。
稳定依赖原则
稳定依赖原则说,组件依赖关系必须指向更稳定的方向。很少有变更的组件是稳定的,也就是说,经常变更的组件是不稳定的。根据稳定依赖原则,不稳定的组件应该依赖稳定的组件,而不是反过来。
反过来说,如果一个组件被更多组件依赖,那么它需要相对是稳定的,因为想要变更一个被很多组件依赖的组件,本身就是一件困难的事。相对应的,如果一个组件依赖了很多的组件,那么它相对也是不稳定的,因为它依赖的任何组件变更,都可能导致自己的变更。
稳定依赖原则通俗地说就是,组件不应该依赖一个比自己还不稳定的组件。
稳定抽象原则
稳定抽象原则说,一个组件的抽象化程度应该与其稳定性程度一致。也就是说,一个稳定的组件应该是抽象的,而不稳定的组件应该是具体的。
这个原则对具体开发的指导意义就是:如果你设计的组件是具体的、不稳定的,那么可以为这个组件对外提供服务的类设计一组接口,并把这组接口封装在一个专门的组件中,那么这个组件相对就比较抽象、稳定。
在具体实践中,这个抽象接口的组件设计,也应该遵循前面专栏讲到的[依赖倒置原则]。也就是说,抽象的接口组件不应该由低层具体实现组件定义,而应该由高层使用组件定义。高层使用组件依赖接口组件进行编程,而低层实现组件实现接口组件。
Java中的JDBC就是这样一个例子在JDK中定义JDBC接口组件这个接口组件位于java.sql包我们开发应用程序的时候只需要使用JDBC的接口编程就可以了。而发布应用的时候我们指定具体的实现组件可以是MySQL实现的JDBC组件也可以是Oracle实现的JDBC组件。
小结
组件的边界与依赖关系划分,不仅需要考虑技术问题,也要考虑业务场景问题。易变与稳定,依赖与被依赖,都需要放在业务场景中去考察。有的时候,甚至不只是技术和业务的问题,还需要考虑人的问题,在一个复杂的组织中,组件的依赖与设计需要考虑人的因素,如果组件的功能划分涉及到部门的职责边界,甚至会和公司内的政治关联起来。
因此,公司的技术沉淀与实力,公司的业务情况,部门与团队的人情世故,甚至公司的过往历史,都可能会对组件的设计产生影响。而能够深刻了解这些情况的,通常都是公司的一些“老人”。所以,年龄大的程序员并不一定要和年轻程序员拼技术甚至拼体力,应该发挥自己的所长,去做一些对自己、对公司更有价值的事。
思考题
在稳定抽象原则里类似JDBC的例子还有很多你能举几个吗
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,87 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
20 答疑 对于设计模式而言,场景到底有多重要?
今天是第二模块的最后一讲。在这一讲中,我们主要讲了软件的设计原理,今天,我将会针对这一模块中大家提出的普遍问题进行总结和答疑。并且,我在最后列了一个书单,这个书单里涉及到的书,可能会对你学习设计模式有一些帮助。让我们整理一下,再接着学习下一个模块的内容。
问题答疑
我们先来看一个同学提出的问题。
@山猫
如果项目初始就对Button按钮进行这么复杂的设计那么这么项目后期的维护成本也是相当之高。
答:
我们这个模块是讲设计的,这些设计原则都是用来解决需求变更的问题的。如果你为需求变更而进行了设计,但是预期中的需求变更却从来没有发生过,那么你的设计就属于设计过度;如果已经发生了需求变更,但是你却没有用灵活的设计方法去应对,而是通过硬编码的方式在既有代码上打补丁,那么这就是设计不足。
因此是否要使用各种设计原则和设计模式去设计一个非常灵活的程序主要是看你的需求场景。如果你的场景就是需要灵活就是要各种复用应对各种变更那么一开始就应该这样设计。如果你的场景根本不需要一个可复用的Button那么就不需要这样设计。
所以关键还是看场景。
但是场景也会变化一开始不需要复用但是后来又需要复用了那么就需要在复用的第一个场景去重构代码而不是等将来困难局面hold不住了再重构。
同时设计原则和设计模式只是让代码看起来复杂了毕竟一个接口好几个实现看起来不如if-else来得直接。但是如果习惯了这种灵活的设计你会觉得这种设计并不复杂。对于软件开发而言复杂的永远是业务逻辑而不是设计模式。设计模式是可重复的可重复的东西即使看起来复杂熟悉了就会觉得很简单。
看起来复杂的设计模式就是用来解决维护困难这种问题的。因此正确使用设计模式看起来复杂了其实维护简单了因为关系和边界更清晰了你不需要在一堆强耦合的代码里搅来搅去。真正维护成本高的其实是那些所谓的简单设计牵一发动全身稍不注意就是各种bug。
最终,一切都要看场景,只有合适的设计,不存在好的设计。分析场景,根据场景进行相应的设计。当然,你要先知道有哪些设计原则和设计模式可以用在这样的场景,这就是我们这个专栏模块的目的。
关于依赖倒置原则,评论区有一个精彩留言,分享给你。
留言回复则解释得更加直白:
另外,我在[第13篇]留了一道思考题:
很多人都回答正确了,但也有一些回答错误的。我这里说明一下。
正确答案为BException是AException的子类。因为只有异常是子类使用父类的地方catch异常的时候才能catch到子类异常也就是才满足里氏替换原则能用子类替换父类。
最近几年分布式架构、大数据、区块链、物联网、AI技术广泛流行。当我们说起软件开发的时候提到的常常是这些宏大的技术架构。但是再宏大的技术也要落实到代码上再厉害的技术终究要解决我们的业务问题。如果不能写出清晰、简单的代码软件之间的耦合关系梳理不清楚即使用了一些很炫酷的技术软件开发可能还是会陷入混乱之中。
这些年,我也曾在一些知名的企业做过各种分布式系统、大数据平台开发,这些系统本身的架构也许有很大创新之处,但是真正使这些系统成功的,依然是低层那些干净、清晰的代码。这些年,我也见过一些知名的架构师、布道师,有些人也曾引领技术潮流,成为风口浪尖上的技术红人,但是真正能够一直走下去,走得远的,不是那些能给自己安了各种厉害头衔的人,而是那些能踏踏实实写出漂亮代码的人。
这个专栏的第二模块就是想传递这些信息,我们为什么要写好的代码,而不仅仅写能用的代码;以及什么叫好的代码,如何写出好的代码。
书籍推荐
人类编程的历史超过半个多世纪了,关于什么叫好的代码,如何写出好的代码也有很多研究,有许多的经典案例和著作。专栏中的内容主要都是来自这些经典的作品。
专栏[第9篇文章]如何使用UML建模的内容主要来自《UML精粹》这本书。
其实UML本身非常简单简单到我都觉得不值得专门阅读一本书去学习UML。UML真正需要学习的是如何灵活使用UML去完成软件设计如何用UML表述出自己的设计意图以及在什么样的场景下用什么样的模型图去表述自己的设计意图。
马丁·福勒这本书也是偏重UML的实践应用而不是讲UML语法本身如何。我的专栏文章内容则更多来自自己的一些最佳实践如何用UML完成设计文档。应该说我在十几年前得以最早抓住机会跳出开发CRUD代码去做一些大型系统的架构和框架开发工作正是因为我用UML比较清晰地表述了系统当时的状况和设计目标打动了项目的领导放手让我一个资历尚浅的新人去做系统的架构设计也因此而改变了自己的职业发展路径。我也期望UML能帮助你找到自己的职业跳跃之路。
专栏11~15篇文章主要讲述软件设计的基本原则这些内容主要来自《敏捷软件开发: 原则、模式与实践》。
作者罗伯特·C ·马丁更知名的昵称是Bob大叔。这本书的名字叫《敏捷软件开发》但是全书主要讲的是设计原则与设计模式。作者认为我们能够进行敏捷开发能够快速响应需求变更不在于什么敏捷开发过程和敏捷项目管理而在于敏捷的软件设计。如果代码一团糟各种耦合各种腐化任你用什么项目管理手段都无济于事。
但如果你的代码灵活、强壮、易于维护和变更,可以轻松应对各种需求变更,那么敏捷的项目过程管理才能带来真正敏捷的效果。
应该说,我第一次读这本书的时候,它给我的震撼相当大。人们在软件开发中遇到困难,本能地想寻找一种轻松又强大的解决办法,什么管理方法啦,外部咨询啦,购买商业解决方案啦。但是,软件终究还是存在于工程师编写的一行行代码里,如果不把这些代码搞清楚,搞好,再好的外部支持只怕也帮不上什么忙。
[第19篇]内容也是来自罗伯特·C·马丁的一本比较新的书叫《架构整洁之道》。
这本书算是Bob大叔架构思想的一本书讲述关于架构的过往与现在关于架构的各种思想原理。
第20篇的内容又是来自马丁·福勒的另一本经典著作《企业应用架构模式》。
这本书是讲述企业架构模式的集大成者我们日常使用的各种开发技术各种解决方案都可以在这本书里找到来源。很多业界广泛使用的技术产品SpringMyBatis这些只不过是这本书里很多架构模式的一种而同类的模式还有很多这些模式有的被淘汰有的在进化。
看这本书里的各种架构模式,然后再想想这些模式背后的技术在这些年中的起起落落,感觉很是沧桑。
这就是第二模块中遗留的一些问题,无论是架构,还是软件开发,终归要落到人身上,落到人编写的一行行代码身上。我希望这个模块可以对你写代码有一些好的启发与提示。

View File

@ -0,0 +1,105 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
20 领域驱动设计35岁的程序员应该写什么样的代码
我在阿里巴巴工作的头一年,坐在我对面的同事负责开发一个公司统一的运维系统。他对这个系统经过谨慎的调研和认真的思考,花费了半年多的时间开发,终于开发完了。然后邀请各个部门的相关同事做发布评审,如果大家没什么意见就发布上线,全公司范围统一推广使用。
结果在这个发布会上,几乎所有部门的同事都提出了不同的意见:虽然这个功能是我们需要的,但是那个特性却是不能接受的,我们以往不是这样的……
最糟糕的是,不同部门的这个功能和那个特性又几乎不相同。最终讨论的结果是,这个系统不发布推广,需要重新设计。
这个同事又花了几个月的时间尝试满足所有部门的不同的需求,最终发现无法统一这些功能需求,于是辞职了……
他离职后,有次会上我们又讨论起这个项目为什么会失败,其中有个同事的话让我印象深刻,他的话的大意是:如果你对自己要开发的业务领域没有清晰的定义和边界,没有设计系统的领域模型,而仅仅跟着所谓的需求不断开发功能,一旦需求来自多个方面,就可能发生需求冲突,或者随着时间的推移,前后功能也会发生冲突,这时你越是试图弥补这些冲突,就越是陷入更大的冲突之中。
回想一下我经历的各种项目似乎确实如此。用户或者产品经理的需求零零散散不断变更。工程师在各处代码中寻找可以实现这些需求变更的代码修修补补。软件只有需求分析并没有真正的设计系统没有一个统一的领域模型维持其内在的逻辑一致性。功能特性并不是按照领域模型内在的逻辑设计而是按照各色人等自己的主观想象设计。项目时间一长各种困难重重需求不断延期线上bug不断管理者考虑是不是要推到重来而程序员则考虑是不是要跑路。
领域模型模式
目前企业级应用开发中,业务逻辑的组织方式主要是事务脚本模式。事务脚本按照业务处理的过程组织业务逻辑,每个过程处理来自客户端的单个请求。客户端的每次请求都包含了一定的业务处理逻辑,而程序则按照每次请求的业务逻辑进行划分。
事务脚本模式典型的就是Controller→Service→Dao这样的程序设计模式。Controller封装用户请求根据请求参数构造一些数据对象调用ServiceService里面包含大量的业务逻辑代码完成对数据的处理期间可能需要通过Dao从数据库中获取数据或者将数据写入数据库中。
比如这样一个业务场景:每个销售合同都包含一个产品,根据销售的不同产品类型计算收入,当用户支付的时候,需要计算合同收入。
按照事务脚本模式,也就是我们目前习惯的方法,程序设计可能是这样的:
用户发起请求到ControllerController调用Service的calculateRecognition方法并将合同ID传递过去计算确认收入。Service根据合同ID调用Dao查找合同信息根据合同获得产品类型再根据产品类型计算收入然后把确认收入保存到数据库。
这里一个很大的问题在于不同产品类型收入的计算方法不同如果修改计算方法或者增加新的产品类型都需要修改这个Service类随着业务不断复杂这个类会变得越来越难以维护。
在这里Service只是用来放收入计算方法的一个类并没有什么设计的约束。如果有一天另一个客户端需要计算另一种产品类型收入很大可能会重新写一个Service。于是相同的业务在不同的地方维护事情变得更加复杂。
由于事务脚本模式中Service、Dao这些对象只有方法没有数值成员变量而方法调用时传递的数值对象没有方法或者只有一些getter、setter方法因此事务脚本又被称作贫血模型。
领域模型模式和事务脚本模式不同。在领域模型模式下业务逻辑围绕领域模型设计。比如收入确认是和合同强相关的是合同对象的一个职责那么合同对象就应该提供一个calculateRecognition方法计算收入。
领域模型中的对象和事务脚本中的对象有很大的不同比如事务脚本中也有合同Contract这个对象但是这个Contract只包含合同的数据信息不包含和合同有关的计算逻辑计算逻辑在Service类里。
而领域模型的对象则包含了对象的数据和计算逻辑,比如合同对象,既包含合同数据,也包含合同相关的计算。因此从面向对象的角度看,领域模型才是真正的面向对象。如果用领域模型设计上面的合同收入确认,是这样的:
计算收入的请求直接提交给合同对象Contract这个时候就无需传递合同ID因为请求的合同对象就是这个ID的对象。合同对象聚合了一个产品对Product并调用这个product的calculateRecognition方法把合同对象传递过去。不同产品关联不同的收入确认策略recognitionStrategy调用recognitionStrategy的calculateRecognition完成收入对象revenueRecognition的创建也就完成了收入计算。
这里Contract和Product都是领域模型对象领域模型是合并了行为和数据的领域的对象模型。通过领域模型对象的交互完成业务逻辑的实现也就是说设计好了领域模型对象也就设计好了业务逻辑实现。和事务脚本被称作贫血模型相对应的领域模型也被称为充血模型。
对于复杂的业务逻辑实现来说,用领域模型模式更有优势。特别是在持续的需求变更和业务迭代过程中,把握好领域模型,对业务逻辑本身也会有更清晰的认识。使用领域模型增加新的产品类型的时候,就不需要修改现有的代码,只需要扩展新的产品类和收入策略类就可以了。
在需求变更过程中,如果一个需求和领域模型有冲突,和模型的定义以及模型间的交互逻辑不一致,那么很有可能这个需求本身就是伪需求。很多看似合理的需求其实和业务的内在逻辑是有冲突的,这样的需求也不会带来业务的价值,通过领域模型分析,可以识别出这样的伪需求,使系统更好地保持一致性,也可以使开发资源投入到更有价值的地方去。
领域驱动设计DDD
前面我讲到领域模型模式那么如何用领域模型模式设计一个完整而复杂的系统有没有完整的方法和过程指导整个系统的设计领域驱动设计即DDD就是用来解决这一问题的。
领域是一个组织所做的事情以及其包含的一切通俗地说就是组织的业务范围和做事方式也是软件开发的目标范围。比如对于淘宝这样一个以电子商务为主要业务的组织C2C电子商务就是它的领域。领域驱动设计就是从领域出发分析领域内模型及其关系进而设计软件系统的方法。
但是如果我们说要对C2C电子商务这个领域进行建模设计那么这个范围就太大了不知道该如何下手。所以通常的做法是把整个领域拆分成多个子域比如用户、商品、订单、库存、物流、发票等。强相关的多个子域组成一个限界上下文限界上下文是对业务领域范围的描述对于系统实现而言可以想象成相当于是一个子系统或者是一个模块。限界上下文和子域共同组成组织的领域如下
不同的限界上下文也就是不同的子系统或者模块之间会有各种的交互合作。如何设计这些交互合作呢DDD使用上下文映射图来完成如下
在DDD中领域模型对象也被称为实体每个实体都是唯一的具有一个唯一标识一个订单对象是一个实体一个产品对象也是一个实体订单ID或者产品ID是它们的唯一标识。实体可能会发生变化比如订单的状态会变化但是它们的唯一标识不会变化。
实体设计是DDD的核心所在首先通过业务分析识别出实体对象然后通过相关的业务逻辑设计实体的属性和方法。这里最重要的是要把握住实体的特征是什么实体应该承担什么职责不应该承担什么职责分析的时候要放在业务场景和限界上下文中而不是想当然地认为这样的实体就应该承担这样的角色。
事实上并不是领域内的对象都应该被设计为实体DDD推荐尽可能将对象设计为值对象。比如像住址这样的对象就是典型的值对象也许建在住址上的房子可以被当做一个实体但是住址仅仅是对房子的一个描述像这样仅仅用来做度量或描述的对象应该被设计为值对象。
值对象的一个特点是不变性,一个值对象创建以后就不能再改变了。如果地址改变了,那就是一个新地址,而一个订单实体则可能会经历创建、待支付、已支付、代发货、已发货、待签收、待评价等各种变化。
领域实体和限界上下文包含了业务的主要逻辑但是最终如何构建一个系统如何将领域实体对外暴露开发出一个完整的系统。事实上DDD支持各种架构方案比如典型的分层架构
领域实体被放置在领域层,通过应用层对领域实体进行包装,最终提供一组访问接口,通过接口层对外开放。
六边形架构是DDD中比较知名的一种架构方式领域模型通过应用程序封装成一个相对比较独立的模块而不同的外部系统则通过不同的适配器和领域模型交互比如可以通过HTTP接口访问领域模型也可以通过Web Service或者消息队列访问领域模型只需要为这些不同的访问接口提供不同的适配器就可以了。
领域驱动设计的技术体系内还有其他一些方法和概念但是最核心的还是领域模型本身通过领域实体及其交互完成业务逻辑处理才是DDD的核心目标。至于是不是用了CQRS是不是事件驱动有没有事件溯源并不是DDD的核心。
小结
回到我们的题目一个35岁的程序员应该写什么样的代码如果一个工作十多年的程序员还是仅仅写一些跟他工作第一年差不多的CRUD代码。那么他迟早会遇到自己的职业危机。公司必然愿意用更年轻、更努力当然也更低薪水的程序员来代替他。至于学习新技术的能力其实多年工作经验也并没有太多帮助有时候也许还是劣势。
在我看来35岁的程序员真正有优势的是他在一个业务领域的多年积淀对业务领域有更深刻的理解和认知。
那么如何将这些业务沉淀和理解反映到工作中,体现在代码中呢?也许可以尝试探索领域驱动设计。如果一个人有多年的领域经验,那么必然对领域模型设计有更深刻的认识,把握好领域模型在不断的需求变更中的演进,使系统维持更好的活力,并因此体现自己真正的价值。
思考题
你觉得大龄程序员的优势是什么?如何在公司保持自己的优势和地位?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,99 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
21 分布式架构:如何应对高并发的用户请求
互联网应用以及云计算的普及,使得架构设计和软件技术的关注点从如何实现复杂的业务逻辑,转变为如何满足大量用户的高并发访问请求。
一个简单的计算处理过程,如果一旦面对大量的用户访问,整个技术挑战就会变得完全不同,软件开发方法、技术团队组织、软件的过程管理都会完全不同。
以新浪微博为例,新浪微博最开始只有两个工程师,一个前端,一个后端,两个人开发了一个星期就把新浪微博开发出来了。现在许多年过去了,新浪微博的技术团队有上千人,这些人要应对的技术挑战,一方面来自于更多更复杂的功能,一方面来自于随着用户量的增加而带来的高并发访问压力。
这种挑战和压力几乎对所有的大型互联网系统都是一样的,淘宝、百度、微信等,虽然功能各不相同,但都会面对同样的高并发用户的访问请求压力。要知道,同样的功能,供几个人使用和供几亿人使用,技术架构是完全不同的。
当同时访问系统的用户不断增加的时候需要消耗的系统计算资源也不断增加需要更多的CPU和内存去处理用户的计算请求需要更多的网络带宽去传输用户的数据需要更多的磁盘空间去存储用户的数据。当消耗的资源超过了服务器资源的极限的时候服务器就会崩溃整个系统无法正常使用。
那么如何解决高并发的用户请求带来的问题?
垂直伸缩与水平伸缩
为了应对高并发用户访问带来的系统资源消耗一种解决办法是垂直伸缩。所谓的垂直伸缩就是提升单台服务器的处理能力比如用更快频率的CPU用更多核的CPU用更大的内存用更快的网卡用更多的磁盘组成一台服务器使单台服务器的处理能力得到提升。通过这种手段提升系统的处理能力。
在大型互联网出现之前传统的行业比如银行、电信这些企业的软件系统主要是使用垂直伸缩这种手段实现系统能力的提升在服务器上增强提升服务器的硬件水平。当业务增长用户增多服务器计算能力无法满足要求的时候就会用更强大的计算机比如更换更快的CPU和网卡、更大的内存和磁盘从服务器升级到小型机从小型机提升到中型机从中型机提升到大型机服务器越来越强大处理能力越来越强大当然价格也越来越昂贵运维越来越复杂。
垂直伸缩带来的价格成本和服务器的处理能力并不一定呈线性关系,也就是说,增加同样的费用,并不能得到同样的计算能力。而且计算能力越强大,需要花费的钱就越多。
同时,受计算机硬件科技水平的制约,单台服务器的计算能力并不能无限增加,而互联网,特别是物联网的计算要求几乎是无限的。
因此,在互联网以及物联网领域,并不使用垂直伸缩这种方案,而是使用水平伸缩。
所谓的水平伸缩,指的是不去提升单机的处理能力,不使用更昂贵更快更厉害的硬件,而是使用更多的服务器,将这些服务器构成一个分布式集群,通过这个集群,对外统一提供服务,以此来提高系统整体的处理能力。
但是要想让更多的服务器构成一个整体,就需要在架构上进行设计,让这些服务器成为整体系统的一个部分,将这些服务器有效地组织起来,统一提升系统的处理能力。这就是互联网应用和云计算中普遍采用的分布式架构方案。
互联网分布式架构演化
分布式架构是互联网企业在业务快速发展过程中逐渐发展起来的一种技术架构包括了一系列的分布式技术方案分布式缓存、负载均衡、反向代理与CDN、分布式消息队列、分布式数据库、NoSQL数据库、分布式文件、搜索引擎、微服务等等还有将这些分布式技术整合起来的分布式架构方案。
这些分布式技术和架构方案是互联网应用随着用户的不断增长,为了满足高并发用户访问不断增长的计算和存储需求,逐渐演化出来的。可以说,几乎所有这些技术都是由应用需求直接驱动产生的。
下面我们通过一个典型的互联网应用的发展历史,来看互联网系统是如何一步一步逐渐演化出各种分布式技术,并构成一个复杂庞大的分布式系统的。
在最早的时候,系统因为用户量比较少,可能只有几个用户,比如刚才提到的微博。一个应用访问自己服务器上的数据库,访问自己服务器的文件系统,构成了一个单机系统,这个系统就可以满足少量用户使用了。
如果这个系统被证明业务上是可行的是有价值的那么用户量就会快速增长。比如像新浪微博引入了一些明星大V开通微博于是迅速吸引了这些明星们的大批粉丝前来关注。这个时候服务器就不能够承受访问压力了需要进行第一次升级数据库与应用分离。
前面单机的时候数据库和应用程序是部署在一起的。进行第一次分离的时候应用程序、数据库、文件系统分别部署在不同的服务器上从1台服务器变成了3台服务器那么相应的处理能力就提升了3倍。
这种分离几乎是不需要花什么技术成本的,只需要把数据库、文件系统进行远程部署,进行远程访问就可以了。
而随着用户进一步的增加更多的粉丝加入微博3台服务器也不能够承受这样的压力了那么就需要使用缓存改善性能。
所谓缓存,就是将应用程序需要读取的数据缓存在缓存中,通过缓存读取数据,而不是通过数据库读取数据。缓存主要有分布式缓存和本地缓存两种。分布式缓存将多台服务器共同构成一个集群,存储更多的缓存数据,共同对应用程序提供缓存服务,提供更强大的缓存能力。
通过使用缓存一方面应用程序不需要去访问数据库因为数据库的数据是存在磁盘上的访问数据库需要花费更多的时间而缓存中的数据只是存储在内存中的访问时间更短另一方面数据库中的数据是以原始数据的形式存在的而缓存中的数据通常是以结果形式存在比如说已经构建成某个对象缓存的就是这个对象不需要进行对象的计算这样就减少了计算的时间同时也减少了CPU的压力。最主要的应用通过访问缓存降低了对数据库的访问压力而数据库通常是整个系统的瓶颈所在。降低了数据库的访问压力就是改善整个系统的处理能力。
随着用户的进一步增加,比如微博有更多的明星加入进来,并带来了更多的粉丝。那么应用服务器可能又会成为瓶颈,因为连接大量的并发用户的访问,这时候就需要对应用服务器进行升级。通过负载均衡服务器,将应用服务器部署为一个集群,添加更多的应用服务器去处理用户的访问。
在微博上,我们的主要操作是刷微博,也就是读微博。如果只是明星们发微博,粉丝刷微博,那么对数据库的访问压力并不大,因为可以通过缓存提供微博数据。但事实上,粉丝们也要发微博,发微博就是写数据,这样数据库会再一次成为整个系统的瓶颈点。单一的数据库并不能承受这么大的访问压力。
这时候的解决办法就是数据库的读写分离,将一个数据库通过数据复制的方式,分裂为两个数据库,主数据库主要负责数据的写操作,所有的写操作都复制到从数据库上,保证从数据库的数据和主数据库数据一致,而从数据库主要提供数据的读操作。
通过这样一种手段,将一台数据库服务器水平伸缩成两台数据库服务器,可以提供更强大的数据处理能力。
对于大多数的互联网应用而言,这样的分布式架构就已经可以满足用户的并发访问压力了。但是对于更大规模的互联网应用而言,比如新浪微博,还需要解决海量数据的存储与查询,以及由此产生的网络带宽压力以及访问延迟等问题。此外随着业务的不断复杂化,如何实现系统的低耦合与模块化开发、部署也成为重要的技术挑战。
海量数据的存储主要通过分布式数据库、分布式文件系统、NoSQL数据库解决。直接在数据库上查询已经无法满足这些数据的查询性能要求还需要部署独立的搜索引擎提供查询服务。同时减少数据中心的网络带宽压力提供更好的用户访问延时使用CDN和反向代理提供前置缓存尽快返回静态文件资源给用户。
为了使各个子系统更灵活易于扩展,则使用分布式消息队列将相关子系统解耦,通过消息的发布订阅完成子系统间的协作。使用微服务架构将逻辑上独立的模块在物理上也独立部署,单独维护,应用系统通过组合多个微服务完成自己的业务逻辑,实现模块更高级别的复用,从而更快速地开发系统和维护系统。
微服务、消息队列、NoSQL等这些分布式技术在出现早期的时候比较有技术难度和使用门槛只在相对比较大规模的互联网系统中使用。但是这些年随着技术的不断成熟特别是云计算的普及使用门槛逐渐降低许多中小规模的系统也已经普遍使用这些分布式技术架构设计自己的互联网系统了。
小结
随着互联网越来越普及越来越多的企业采用面向互联网的方式开展自己的业务。传统的IT系统用户量是有限而确定的超市系统的用户主要是超市的收银员银行系统的用户主要是银行的柜员但是超市、银行这些企业如果使用互联网开展自己的业务那么应用系统的用户量可能会成千上万倍地增加。
这些海量的用户访问企业的后端系统,就会产生高并发的访问压力,需要消耗巨大的计算资源,如何增加计算资源以满足高并发的用户访问压力,正是互联网架构技术的核心驱动力。主要就是各种分布式技术,我将会在后续讲解其中比较典型的几种分布式技术架构。
思考题
互联网应用系统和传统IT系统面对的挑战除了高并发还有哪些不同
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流。

View File

@ -0,0 +1,105 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
22 缓存架构:如何减少不必要的计算?
上一篇我们讲到,互联网应用的主要挑战就是在高并发情况下,大量的用户请求到达应用系统服务器,造成了巨大的计算压力。互联网应用的核心解决思路就是采用分布式架构,提供更多的服务器,从而提供更多的计算资源,以应对高并发带来的计算压力及资源消耗。
那么有没有办法减少到达服务器的并发请求压力呢?或者请求到达服务器后,有没有办法减少不必要的计算,降低服务器的计算资源消耗,尽快返回计算结果给用户呢?
有,解决的核心就是缓存。
所谓缓存,就是将需要多次读取的数据暂存起来,这样在后面,应用程序需要多次读取的时候,就不必从数据源重复加载数据了,这样就可以降低数据源的计算负载压力,提高数据响应速度。
一般说来,缓存可以分成两种,通读缓存和旁路缓存。
通读read-through缓存应用程序访问通读缓存获取数据的时候如果通读缓存有应用程序需要的数据那么就返回这个数据如果没有那么通读缓存就自己负责访问数据源从数据源获取数据返回给应用程序并将这个数据缓存在自己的缓存中。这样下次应用程序需要数据的时候就可以通过通读缓存直接获得数据了。
通读缓存在架构中的位置与作用如下图:
旁路cache-aside缓存应用程序访问旁路缓存获取数据的时候如果旁路缓存中有应用程序需要的数据那么就返回这个数据如果没有就返回空null。应用程序需要自己从数据源读取数据然后将这个数据写入到旁路缓存中。这样下次应用程序需要数据的时候就可以通过旁路缓存直接获得数据了。
旁路缓存在架构中位置与作用如下图:
通读缓存
互联网应用中主要使用的通读缓存是CDN和反向代理缓存。
CDNContent Delivery Network即内容分发网络。我们上网的时候App或者浏览器想要连接到互联网应用的服务器需要网络服务商比如移动、电信这样的服务商为我们提供网络服务建立网络连接才可以上网。
而这些服务商需要在全国范围内部署骨干网络、交换机机房才能完成网络连接服务,这些交换机机房可能会离用户非常近,那么互联网应用能不能在这些交换机机房中部署缓存缓存服务器呢?这样,用户就可以近距离获得自己需要的数据,既提高了响应速度,又节约了网络带宽和服务器资源。
当然可以。这个部署在网络服务商机房中的缓存就是CDN因为距离用户非常近又被称作网络连接的第一跳。目前很多互联网应用大约80%以上的网络流量都是通过CDN返回的。
CDN只能缓存静态数据内容比如图片、CSS、JS、HTML等内容。而动态的内容比如订单查询、商品搜索结果等必须要应用服务器进行计算处理后才能获得。因此互联网应用的静态内容和动态内容需要进行分离静态内容和动态内容部署在不同的服务器集群上使用不同的二级域名即所谓的动静分离一方面便于运维管理另一方面也便于CDN进行缓存使CDN只缓存静态内容。
反向代理缓存也是一种通读缓存。我们上网的时候,有时候需要通过代理上网,这个代理是代理我们的客户端上网设备。而反向代理则代理服务器,是应用程序服务器的门户,所有的网络请求都需要通过反向代理才能到达应用程序服务器。既然所有的请求都需要通过反向代理才能到达应用服务器,那么在这里加一个缓存,尽快将数据返回给用户,而不是发送给应用服务器,这就是反向代理缓存。
用户请求到达反向代理缓存服务器,反向代理检查本地是否有需要的数据,如果有就直接返回,如果没有,就请求应用服务器,得到需要的数据后缓存在本地,然后返回给用户。
旁路缓存
CDN和反向代理缓存通常会作为系统架构的一部分很多时候对应用程序是透明的。而应用程序在代码中主要使用的是对象缓存对象缓存是一种旁路缓存。
不管是通读缓存还是旁路缓存缓存通常都是以的方式存储在缓存中比如CDN和反向代理缓存中每个URL是一个key那么URL对应的文件内容就是value。而对象缓存中key通常是一个ID比如用户ID商品ID等等而value则是一个对象就是ID对应的用户对象或者商品对象。
对于的数据格式我们在前面在数据结构讨论过比较快速的存取方式是使用Hash表。因此通读缓存和旁路缓存在实现上基本上用的是Hash表。
程序中使用的对象缓存可以分成两种。一种是本地缓存缓存和应用程序在同一个进程中启动使用程序的堆空间存放缓存数据。本地缓存的响应速度快但是缓存可以使用的内存空间相对比较小但是对于大型互联网应用所需要缓存的数据通以T计这时候就要使用远程的分布式缓存了。
分布式缓存是指将一组服务器构成一个缓存集群共同对外提供缓存服务那么应用程序在每次读写缓存的时候如何知道要访问缓存集群中的哪台服务器呢我们以Memcached为例看看分布式缓存的架构
Memcached将多台服务器构成一个缓存集群缓存数据存储在每台服务器的内存中。事实上使用缓存的应用程序服务器通常也是以集群方式部署的每个程序需要依赖一个Memcached的客户端SDK通过SDK的API访问Memcached的服务器。
应用程序调用APIAPI调用SDK的路由算法路由算法根据缓存的key值计算这个key应该访问哪台Memcached服务器计算得到服务器的IP地址和端口号后API再调用SDK的通信模块将值以及缓存操作命令发送给具体的某台Memcached服务器由这台服务器完成缓存操作。
那么路由算法又是如何计算得到Memcached的服务器IP端口呢比较简单的一种方法和Hash算法一样利用key的Hash值对服务器列表长度取模根据余数就可以确定服务器列表的下标进而得到服务器的IP和端口。
缓存注意事项
使用缓存可以减少不必要的计算,能够带来三个方面的好处:
缓存的数据通常存储在内存中,距离使用数据的应用也更近一点,因此相比从硬盘上获取,或者从远程网络上获取,它获取数据的速度更快一点,响应时间更快,性能表现更好。
缓存的数据通常是计算结果数据比如对象缓存中通常存放经过计算加工的结果对象如果缓存不命中那么就需要从数据库中获取原始数据然后进行计算加工才能得到结果对象因此使用缓存可以减少CPU的计算消耗节省计算资源同样也加快了处理的速度。
通过对象缓存获取数据可以降低数据库的负载压力通过CDN、反向代理等通读缓存获取数据可以降低服务器的负载压力。这些被释放出来的计算资源可以提供给其他更有需要的计算场景比如写数据的场景间接提高整个系统的处理能力。
但是缓存也不是万能的,如果不恰当地使用缓存,也可能会带来问题。
首先就是数据脏读的问题,缓存的数据来自数据源,如果数据源中的数据被修改了,那么缓存中的数据就变成脏数据了。
主要解决办法有两个,一个是过期失效,每次写入缓存中的数据都标记其失效时间,在读取缓存的时候,检查数据是否已经过期失效,如果失效,就重新从数据源获取数据。缓存失效依然可能会在未失效时间内读到脏数据,但是一般的应用都可以容忍较短时间的数据不一致,比如淘宝卖家更新了商品信息,那么几分钟数据没有更新到缓存,买家看到的还是旧数据,这种情况通常是可以接受的,这时候,就可以设置缓存失效时间为几分钟。
另一个办法就是失效通知,应用程序更新数据源的数据,同时发送通知,将该数据从缓存中清除。失效通知看起来数据更新更加及时,但是实践中,更多使用的还是过期失效。
此外,并不是所有数据使用缓存都有意义。在互联网应用中,大多数数据访问都是有热点的,比如热门微博会被更多阅读,热门商品会被更多浏览。那么将这些热门的数据保存在缓存中是有意义的,因为缓存通常使用内存,存储空间比较有限,只能存储有限的数据,热门数据存储在缓存中,可以被更多次地读取,缓存效率也比较高。
相反,如果缓存的数据没有热点,写入缓存的数据很难被重复读取,那么使用缓存就不是很有必要了。
小结
缓存是优化软件性能的杀手锏任何需要查询数据、请求数据的场合都可以考虑使用缓存。缓存几乎是无处不在的程序代码中可以使用缓存网络架构中可以使用缓存CPU、操作系统、虚拟机也大量使用缓存事实上缓存最早就是在CPU中使用的。对于一个典型的互联网应用而言使用缓存可以解决绝大部分的性能问题如果需要优化软件性能那么可以优先考虑哪里可以使用缓存改善性能。
除了本篇提到的系统架构缓存外客户端也可以使用缓存在App或者浏览器中缓存数据甚至都不需要消耗网络带宽资源也不会消耗CDN、反向代理的内存资源更不会消耗服务器的计算资源。
思考题
我们从Memcached路由算法讲到余数Hash算法但是这种算法在Memcached服务器集群扩容也就是增加服务器的时候会遇到较大的问题问题是什么呢应该如何解决
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流进步一下。

View File

@ -0,0 +1,120 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
23 异步架构:如何避免互相依赖的系统间耦合?
上一篇文章中我们讨论过,使用缓存架构可以减少不必要的计算,快速响应用户请求。但是缓存只能改善系统的读操作性能,也就是在读取数据的时候,可以不从数据源中读取,而是通过缓存读取,以加速数据读取速度。
但是对于写操作缓存是无能为力的。虽然缓存的写入速度也很快但是通常情况下我们不能把用户提交的数据直接写入缓存中因为缓存通常被认为是一种不可靠的存储。缓存通常无法保证数据的持久性和一致性等这些数据存储的基本要求因此数据写操作还是需要写入到RDBMS或者NoSQL数据库中但是数据库操作通常都比较慢。
那么如何提高系统的写操作的性能呢?
此外两个应用系统之间需要远程传递数据常规的做法就是直接进行远程调用用HTTP或者其他RMI方式进行远程调用。但是这种方式其实是把两个应用耦合起来了被调用的应用产生了故障或者升级都可能会引起调用者故障或者也不得不升级。
这种系统间的耦合情况又该如何避免呢?
解决以上问题的主要手段就是使用消息队列的异步架构,有时候也被称为事件驱动架构。
使用消息队列实现异步架构
消息队列实现异步架构是目前互联网应用系统中一种典型的架构模式。所谓异步架构是和同步架构相对应的。同步架构是说,当应用程序调用服务的时候,当前程序需要阻塞等待服务完成,返回服务结果后才能继续向下执行。
如下图例子:
应用程序代码ClintCode需要发送邮件调用接口服务EmailService实现了EmailService接口的SmtpEmailAdapter通过SMTP协议与远程服务器通信远程邮件服务器可能有很多邮件在等待发送当前邮件可能要等待较长时间才能发送成功发送成功后再通过远程通信返回结果给应用程序。
在这个过程中当远程服务器发送邮件的时候应用程序必须阻塞等待。准确地说是执行应用程序代码的线程被阻塞。这种阻塞一方面导致线程不能释放被占用的系统资源导致系统资源不足影响系统性能。另一方面也导致无法快速给用户返回响应结果用户体验较差。此外如果远程服务器出现异常这个异常会传递给应用程序ClientCode如果应用程序没有妥善处理好这个异常就会导致整个请求处理失败。
事实上,在大部分应用场景下,发送邮件是不需要得到发送结果的,比如用户注册的时候,发送账号激活邮件,无论邮件是否发送成功,都可以给用户返回“激活邮件已经发送,请查收邮件确认激活”。如果发送失败,只需要提示用户“点击重新发送”,再次发送邮件即可。
那么如何使应用程序不阻塞等待呢?解决方案就是使用消息队列实现异步架构。
如下图所示:
应用程序ClientCode调用EmailService的时候EmailService将调用请求封装成一个邮件发送消息发送给消息队列然后就直接返回了应用程序收到返回以后就可以继续执行快速完成用户响应释放系统资源。
而发送给消息队列的邮件发送消息则会被一个专门的消息队列消费者程序QueueConsumer消费掉这个消费者通过SmtpEmailAdapter调用远程服务器完成邮件发送。如果远程服务处理异常这个异常只会传递给消费者程序QueueConsumer而不会影响到应用程序。
典型的消息队列异步架构如下:
消息队列异步架构的主要角色包括消息生产者、消息队列和消息消费者。消息生产者通常就是主应用程序,生产者将调用请求封装成消息发送给消息队列。此外还需要开发一个专门的消息消费者程序,用来从消息队列中获取、消费消息,由消息消费者完成业务逻辑处理。
消息队列的职责就是缓冲消息,等待消费者消费。根据消息消费方式又分为点对点模式和发布订阅模式两种。
在点对点模式中,多个消息生产者向消息队列发送消息,多个消息消费者消费消息,每个消息只会被一个消息消费者消费。
如下图:
上面举例的发送邮件的场景就是一个典型的点对点模式场景。任何需要发送邮件的应用程序都可以作为消息生产者向消息队列发送邮件消息。而通过SMTP协议调用远程服务发送邮件的消息消费者程序可以部署在多台服务器上但是对于任何一个消息只会被发送给其中的一个消费者服务器。这些服务器可以根据消息的数量动态伸缩保证邮件能及时发送。如果有某台消费者服务器宕机既不会影响其他消费者处理消息发送邮件也不会影响生产者程序正常运行。
在发布订阅模式中,开发者可以在消息队列中设置主题,消息生产者的消息按照主题进行发送,多个消息消费者可以订阅同一个主题,每个消费者都可以收到这个主题的消息拷贝,然后按照自己的业务逻辑分别进行处理计算。
如下图:
消息生产者向消息队列某个主题发布消息m多个消息消费者订阅该主题就会分别收到这个消息m。典型场景就是新用户注册新用户注册的时候一方面需要发送激活邮件另一方面可能还需要发送欢迎短信还可能需要将用户信息同步给关联产品当然还需要将用户信息保存到数据库中。
这种场景也可以用点对点模式,由应用程序,也就是消息生产者构造发送邮件的消息,发送到邮件消息队列,以及构造短信消息,构造新用户消息,构造数据库消息分别发送到相关的消息队列里,然后由对应的消息消费者程序分别获取消息进行处理。
但更好的处理方式是使用发布订阅模式。在消息队列中创建“新用户注册”主题,应用程序只需要发布包含新用户注册数据的消息到该主题中,相关消费者再订阅该主题即可。不同的消费者都订阅该主题,得到新用户注册消息,然后根据自己的业务逻辑从消息中获取相关的数据,进行处理。
如下图所示:
发布订阅模式下,一个主题可以被重复订阅,所以如果需要扩展功能,可以在对当前的生产者和消费者都没有影响的前提下,增加新的消费者订阅同一个主题即可。
消息队列异步架构的好处
使用消息队列实现异步架构可以解决文章开篇提出的问题,实现更高的写操作性能以及更低的耦合性。让我们总结一下,使用消息队列的异步架构都有什么好处。
改善写操作请求的响应时间
使用消息队列,生产者应用程序只需要将消息发送到消息队列之后,就可以继续向下执行了,无需等待耗时的消息消费处理,也就是说,可以更快速地完成请求处理操作,快速响应用户。
更容易进行伸缩
我在[第4篇文章]中说过,应用程序也可以通过负载均衡实现集群伸缩,但是这种集群伸缩是以整个应用服务器为单位的。如果只是其中某些功能有负载压力,比如当用户上传图片,需要对图片进行识别、分析、压缩等一些比较耗时的计算操作时,也需要伸缩整个应用服务器集群。
事实上,图片处理只是应用的一个相对小的功能,如果因为这个就对应用服务器集群进行伸缩,代价可能会比较大。如果用消息队列,将图片处理相关的操作放在消费者服务器上,那么就可以单独针对图片处理的消费者集群进行伸缩。
削峰填谷
互联网应用的访问压力随时都在变化,系统的访问高峰和低谷的并发压力可能也有非常大的差距。如果按照压力最大的情况部署服务器集群,那么服务器在绝大部分时间内都处于闲置状态。但利用消息队列,我们可以将需要处理的消息放入消息队列,而消费者可以控制消费速度,因此能够降低系统访问高峰时压力,而在访问低谷的时候还可以继续消费消息队列中未处理的消息,保持系统的资源利用率。
隔离失败
使用消息队列,生产者发送消息到消息队列后就继续自己后面的计算,消费者如果在处理消息的过程中失败,不会传递给生产者,应用程序具有更高的可用性。
降低耦合
如上面发送邮件的例子所示,如果调用是同步的,那么意味着调用者和被调用者必然存在依赖,一方面是代码上的依赖,应用程序需要依赖发送邮件相关的代码,如果需要修改发送邮件的代码,就必须修改应用程序,而且如果要增加新的功能,比如发送短信,也必须修改应用程序;另一方面是结果的依赖,应用程序必须要等到返回调用结果才能继续执行,如果调用出现异常,应用程序必须要处理这个异常。
我们知道,耦合会使软件僵硬、笨拙、难以维护,而使用消息队列的异步架构可以降低调用者和被调用者的耦合。调用者发送消息到消息队列,不需要依赖被调用者的代码和处理结果,增加新的功能,也只需要增加新的消费者就可以了。
小结
消息队列实现异步架构是改善互联网应用写操作性能的重要手段,也是一种低耦合、易扩展的分布式应用架构模式。但是使用这种架构有些方面也需要注意。
比如,消费者程序可能没有完成用户请求的操作,上面发送邮件的例子,消费者程序发送邮件的时候可能会遇到各种问题,从而未完成邮件发送。
邮件的问题还比较简单比如可以提示用户“如果未收到邮件点击按钮重新发送。”但是如果是提交订单或者发起支付的话就需要更复杂的用户交互和处理方法了。比如将订单消息发送到消息队列后就立即返回这个时候可以在用户端App展现一个进度条提示用户“订单处理中”等消费者程序完成订单处理后发送消息给用户App显示最终的订单结果信息。
思考题
异步架构中最主要的技术就是消息队列,目前主要的消息队列产品有哪些?各有什么优缺点?
欢迎你在评论区说说你对消息队列产品的了解,我会和你一起交流,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,83 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
24 负载均衡架构如何用10行代码实现一个负载均衡服务
负载均衡是互联网系统架构中必不可少的一个技术。通过负载均衡,可以将高并发的用户请求分发到多台应用服务器组成的一个服务器集群上,利用更多的服务器资源处理高并发下的计算压力。
那么负载均衡是如何实现的,如何将不同的请求分发到不同的服务器上呢?
早期,实现负载均衡需要使用专门的负载均衡硬件设备,这些硬件通常比较昂贵。随着互联网的普及,越来越多的企业需要部署自己的互联网应用系统,而这些专用的负载均衡硬件对他们来说成本太高,于是出现了各种通过软件实现负载均衡的技术方案。
HTTP重定向负载均衡
HTTP重定向负载均衡是一种比较简单的负载均衡技术实现。来自用户的HTTP请求到达负载均衡服务器以后负载均衡服务器根据某种负载均衡算法计算得到一个应用服务器的地址通过HTTP状态码302重定向响应将新的IP地址发送给用户浏览器用户浏览器收到重定向响应以后重新发送请求到真正的应用服务器以此来实现负载均衡。
这种负载均衡实现方法比较简单如果是用Java开发的话只需要在Servlet代码中调用响应重定向方法就可以了。在简化的情况下只需要不到十行代码就可以实现一个HTTP重定向负载均衡服务器。
HTTP重定向负载均衡的优点是设计比较简单但是它的缺点也比较明显一方面用户完成一次访问就需要请求两次数据中心一次请求负载均衡服务器一次是请求应用服务器请求处理性能会受很大的影响。
另一个问题是因为响应要重定向到真正的应用服务器所以需要把应用服务器的IP地址暴露给外部用户这样可能会带来安全性的问题。负载均衡服务器通常不部署应用代码也会关闭不必要的访问端口设置比较严格的防火墙权限通常安全性更好一点。因此一个互联网系统通常只将负载均衡服务器的IP地址对外暴露供用户访问而应用服务器则只是用内网IP外部访问者无法直接连接应用服务器。但是使用HTTP重定向负载均衡应用服务器不得不使用公网IP外部访问者可以直接连接到应用服务器系统的安全性会降低。
因此HTTP重定向负载均衡在实践中很少使用。
DNS负载均衡
另一种实现负载均衡的技术方案是DNS负载均衡。我们知道浏览器或者App应用访问数据中心的时候通常是用域名进行访问HTTP协议则必须知道IP地址才能建立通信连接那么域名是如何转换成IP地址的呢就是通过DNS服务器来完成。当用户从浏览器发起HTTP请求的时候首先要到DNS域名服务器进行域名解析解析得到IP地址以后用户才能够根据IP地址建立HTTP连接访问真正的数据中心的应用服务器这时候就可以在DNS域名解析的时候进行负载均衡也就是说不同的用户进行域名解析的时候返回不同的IP地址从而实现负载均衡。
从上面的架构图可以看到DNS负载均衡和HTTP重定向负载均衡似乎很像。那么DNS会不会有性能问题和安全性问题呢
首先和HTTP重定向不同用户不需要每次请求都进行DNS域名解析第一次解析后域名缓存在本机后面较长一段时间都不会再进行域名解析了因此性能方面不会是问题。
其次如果如图中所示域名解析直接得到应用服务器的IP地址确实会存在安全性问题。但是大型互联网应用通常并不直接通过DNS解析得到应用服务器IP地址而是解析得到负载均衡服务器的IP地址。也就是说大型网互联网应用需要两次负载均衡一次通过DNS负载均衡用户请求访问数据中心负载均衡服务器集群的某台机器然后这台负载均衡服务器再进行一次负载均衡将用户请求分发到应用服务器集群的某台服务器上。通过这种方式应用服务器不需要用公网IP将自己暴露给外部访问者避免了安全性问题。
DNS域名解析是域名服务商提供的一项基本服务几乎所有的域名服务商都支持域名解析负载均衡只需要在域名服务商的服务控制台进行一下配置不需要开发代码进行部署就可以拥有DNS负载均衡服务了。目前大型的互联网应用淘宝、百度、Google等全部使用DNS负载均衡。比如用不同的电脑ping www.baidu.com就可以看到不同电脑得到的IP地址是不同的。
反向代理负载均衡
我在[第22篇]缓存架构中提到用户请求到达数据中心以后最先到达的就是反向代理服务器。反向代理服务器查找本机是否有请求的资源如果有就直接返回资源数据如果没有就将请求发送给后面的应用服务器继续处理。事实上发送请求给应用服务器的时候就可以进行负载均衡将不同的用户请求分发到不同的服务器上面去。Nginx这样的HTTP服务器就会同时提供反向代理与负载均衡功能。
反向代理服务器是工作在HTTP协议层之上的所以它代理的也是HTTP的请求和响应。作为互联网应用层的一个协议HTTP协议相对说来比较重效率比较低所以反向代理负载均衡通常用在小规模的互联网系统上只有几台或者十几台服务器的规模。
IP负载均衡
反向代理负载均衡是工作在应用层网络协议上的负载均衡因此也叫应用层负载均衡。应用层负载均衡之下的负载均衡方法是在TCP/IP协议的IP层进行负载均衡IP层是网络通讯协议的网络层所以有时候叫网络层负载均衡。它的主要工作原理是当用户的请求到达负载均衡服务器以后负载均衡服务器会对网络层的数据包的IP地址进行转换修改IP地址将其修改为应用服务器的IP地址然后把数据包重新发送出去请求数据就会到达应用服务器。
IP负载均衡不需要在HTTP协议层工作可以在操作系统内核直接修改IP数据包的地址因此效率比应用层的反向代理负载均衡高得多。但是它依然有一个缺陷不管是请求还是响应的数据包都要通过负载均衡服务器进行IP地址转换才能够正确地把请求数据分发到应用服务器或者正确地将响应数据包发送到用户端程序。请求的数据通常比较小一个URL或者是一个简单的表单但是响应的数据不管是HTML还是图片或者是JS、CSS这样的资源文件通常都会比较大因此负载均衡服务器会成为响应数据的流量瓶颈。
数据链路层负载均衡
数据链路层负载均衡可以解决响应数据量大而导致的负载均衡服务器输出带宽不足的问题。也就是说负载均衡服务器并不修改数据包的IP地址而是修改数据链路层里的网卡mac地址在数据链路层实现负载均衡。而应用服务器和负载均衡服务器都使用相同的虚拟IP地址这样IP路由就不会受到影响但是网卡会根据自己的mac地址选择负载均衡服务器发送到自己网卡的数据包交给对应的应用程序去处理处理结束以后当把响应的数据包发送到网络上的时候因为IP地址没有修改过所以这个响应会直接到达用户的浏览器而不会再经过负载均衡服务器。
链路层负载均衡避免响应数据再经过负载均衡服务器,因而可以承受较大的数据传输压力,所以,目前大型互联网应用基本都使用链路层负载均衡。
Linux上实现IP负载均衡和链路层负载均衡的技术是LVS目前LVS的功能已经集成到Linux中了通过Linux可以直接配置实现这两种负载均衡。
小结
负载均衡技术在早期刚出现的时候设备昂贵使用复杂只有大企业才用得起、用得上但是到了今天随着互联网技术的发展与普及负载均衡已经是最常用的分布式技术之一了使用也非常简单。如果使用云计算平台只需要在控制台点击几下就可以配置实现一个负载均衡了。即使是自己部署一个负载均衡服务器不管是直接用Linux还是用Nginx也不是很复杂。
我在这里主要描述的是负载均衡的网络技术架构。事实上,实现一个负载均衡,还需要关注负载均衡的算法,也就是说,当一个请求到达负载均衡服务器的时候,负载均衡服务器该选择集群中的哪一台服务器将请求发送给它?
目前主要的负载均衡算法有轮询、随机、最少连接几种。轮询就是将请求轮流发给应用服务器,随机就是将请求随机发送给任一台应用服务器,最少连接则是根据应用服务器当前正在处理的连接数,将请求分发给最少连接的服务器。
思考题
利用HTTP重定向只需要很少代码就可以完成一个简化的负载均衡你能否利用你熟悉的编程语言写一个简化的HTTP重定向负载均衡demo
欢迎你在评论区写下你的答案,我会和你一起交流,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,107 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
25 数据存储架构:如何改善系统的数据存储能力?
在整个互联网系统架构中承受着最大处理压力最难以被伸缩的就是数据存储部分。原因主要有两方面。一方面数据存储需要使用硬盘而硬盘的处理速度要比其他几种计算资源比如CPU、内存、网卡都要慢一些另一方面数据是公司最重要的资产公司需要保证数据的高可用以及一致性非功能性约束更多一些。
因此数据存储通常都是互联网应用的瓶颈。在高并发的情况下最容易出现性能问题的就是数据存储。目前用来改善数据存储能力的主要手段包括数据库主从复制、数据库分片和NoSQL数据库。
数据库主从复制
我们以MySQL为例看下数据库主从复制的实现技术以及应用场景。
MySQL的主从复制顾名思义就是将MySQL主数据库中的数据复制到从数据库中去。主要的复制原理是当应用程序客户端发送一条更新命令到主服务器数据库的时候数据库会把这条更新命令同步记录到Binlog中然后由另外一个线程从Binlog中读取这条日志通过远程通讯的方式将它复制到从服务器上面去。
从服务器获得这条更新日志后将其加入到自己的Relay Log中然后由另外一个SQL执行线程从Relay log中读取这条新的日志并把它在本地的数据库中重新执行一遍这样当客户端应用程序执行一个update命令的时候这个命令会同时在主数据库和从数据库上执行从而实现了主数据库向从数据库的复制让从数据库和主数据库保持一样的数据。
通过数据库主从复制的方式,我们可以实现数据库读写分离。写操作访问主数据库,读操作访问从数据库,使数据库具有更强大的访问负载能力,支撑更多的用户访问。在实践中,通常采用一主多从的数据复制方案,也就是说,一个主数据库将数据复制到多个从数据库,多个从数据库承担更多的读操作压力,以及不同的角色,比如有的从数据库用来做实时数据分析,有的从数据库用来做批任务报表计算,有的单纯做数据备份。
采用一主多从的方案当某个从数据库宕机的时候还可以将读操作迁移到其他从数据库上保证读操作的高可用。但如果主数据库宕机系统就没法使用了因此现实中也会采用MySQL主主复制的方案。也就是说两台服务器互相备份任何一台服务器都会将自己的Binlog复制到另一台机器的Relay Log中以保持两台服务器的数据一致。
使用主主复制需要注意的是,主主复制仅仅用来提升数据写操作的可用性,并不能用来提高写操作的性能。任何时候,系统中都只能有一个数据库作为主数据库,也就是说,所有的应用程序都必须连接到同一个主数据库进行写操作。只有当该数据库宕机失效的时候,才会将写操作切换到另一台主数据库上。这样才能够保证数据库数据的一致性,不会出现数据冲突。
此外,不管是主从复制还是主主复制,都无法提升数据库的存储能力,也就是说,不管增加多少服务器,这些服务器存储的数据都是一样的。如果数据量太大,数据库无法存下这么多的数据,通过数据库复制是无法解决问题的。
数据库分片
我们上面说到,数据库主从复制无法解决数据库的存储问题,但是数据库分片技术可以解决。也就是说,将一张表的数据分成若干片,每一片都包含了数据表中一部分的行记录,然后每一片存储在不同的服务器上,这样一张表就存储在多台服务器上了。
最简单的数据库分片存储可以采用硬编码的方式在程序代码中直接指定一条数据库记录要存放到哪个服务器上。比如将用户表分成两片存储在两台服务器上那么就可以在程序代码中根据用户ID进行分片计算ID为偶数的用户记录存储到服务器1ID为奇数的用户记录存储到服务器2。
但是硬编码方式的缺点比较明显。首先如果要增加服务器那么就必须修改分片逻辑代码这样程序代码就会因为非业务需求产生不必要的变更其次分片逻辑耦合在处理业务逻辑的程序代码中修改分片逻辑或者修改业务逻辑都可能使另一部分代码因为不小心的改动而出现Bug。
但是我们可以通过使用分布式关系数据库中间件解决这个问题,将数据的分片逻辑在中间件中完成,对应用程序透明。
比如MYCAT。
应用程序像使用MySQL数据库一样连接MYCAT提交SQL命令。MYCAT在收到SQL命令以后查找配置的分片逻辑规则。比如上图例子中根据地区进行数据分片不同地区的订单存储在不同的数据库上那么MYCAT就可以解析出SQL中的地区字段prov根据这个字段连接相对应的数据库。例子中SQL的地区字段是“wuhan”而在MYCAT中配置“wuhan”对应的数据库是DB1用户提交的这条SQL最终会被发送给DB1数据库进行处理。
实践中更常见的数据库分片算法是我们所熟悉的余数Hash算法根据主键ID和服务器的数目进行取模计算根据余数连接相对应的服务器。
关系数据库的混合部署
我在上面提到了关系数据库的主从复制、主主复制、数据库分片这几种改善数据读写以及存储能力的技术方案。事实上,这几种方案可以根据应用场景的需要混合部署,也就是说,可以在一个系统中混合使用以上多种技术方案。
对于数据访问和存储压力不太大,对可用性要求也不太高的系统,也许部署在单一服务器上的数据库就可以解决,所有的应用服务器都连接访问这一台数据库服务器。
如果访问量比较大,同时对数据可用性要求也比较高,那么就需要使用数据库主从复制技术,将数据库部署在多台服务器上。
随着业务复杂以及数据存储和访问压力的增加,这时候可以选择业务分库。也就是说,将不同业务相关的数据库表,部署在不同的服务器上,比如类目数据和用户数据相对关联关系不大,服务的应用也不一样,那么就可以将这两类数据库部署在不同的服务器上。而每一类数据库还可以继续选择使用主从复制,或者主主复制。
不同的业务数据库,其数据库存储的数据和访问压力也是不同的,比如用户数据库的数据量和访问量就可能是类目数据库的几十倍,甚至上百倍。那么这时候就可以针对用户数据库进行数据分片,而每个分片数据库还可以继续进行主从复制或者主主复制。
NoSQL数据库
NoSQL数据是改善数据存储能力的一个重要手段。NoSQL数据库和传统的关系型数据库不同它主要的访问方式不是使用SQL进行操作而是使用Key、Value的方式进行数据访问所以被称作NoSQL数据库。NoSQL数据库主要用来解决大规模分布式数据的存储问题。常用的NoSQL数据库有Apache HBaseApache Cassandra等Redis虽然是一个分布式缓存技术产品但有时候也被归类为NoSQL数据库。
NoSQL数据库面临的挑战之一是数据一致性问题。如果数据分布存储在多台服务器组成的集群上那么当有服务器节点失效的时候或者服务器之间网络通信故障的时候不同用户读取的数据就可能会不一致。
比如用户1连接服务器节点A用户2连接服务器节点B当两个用户同时修改某个数据的时候如果正好服务器A和服务器B之间的网络通信失败那么这两个节点上的数据也就不一致了其他用户在访问这个数据的时候可能会得到不一致的结果。
关于分布式存储系统有一个著名的CAP原理CAP原理说一个提供数据服务的分布式系统无法同时满足数据一致性Consistency、可用性Availability和分区耐受性Partition Tolerance这三个条件。
一致性是说,每次读取的数据都应该是最近写入的数据或者返回一个错误,而不是过期数据,也就是说,数据是一致的。
可用性是说,每次请求都应该得到一个响应,而不是返回一个错误或者失去响应,不过这个响应不需要保证数据是最近写入的。也就是说,系统需要一直都是可以正常使用的,不会引起调用者的异常,但是并不保证响应的数据是最新的。
分区耐受性说,即使因为网络原因,网络分区失效的时候,部分服务器节点之间消息丢失或者延迟了,系统依然应该是可以操作的。
CAP原理是说当网络分区失效发生的时候我们要么取消操作保证数据就是一致的但是系统却不可用要么继续写入数据但是数据的一致性就得不到保证了。
对于一个分布式系统而言,网络失效一定会发生,也就是说,分区耐受性是必须要保证的,而对于互联网应用来说,可用性也是需要保证的,分布式存储系统通常需要在一致性上做一些妥协和增强。
Apache Cassandra解决数据一致性的方案是在用户写入数据的时候将一个数据写入集群中的三个服务器节点等待至少两个节点响应写入成功。用户读取数据的时候从三个节点尝试读取数据至少等到两个节点返回数据并根据返回数据的时间戳选取最新版本的数据。这样即使服务器中的数据不一致但是最终用户还是能得到一个一致的数据这种方案也被称为最终一致性。
小结
有人说,架构是一门关于权衡的艺术,这一点在数据存储架构上表现得最为明显。由于数据存储的挑战性和复杂性,无论你选择何种技术方案,都会带来一些新的问题和挑战。数据存储架构没有银弹,没有一劳永逸的解决方案,唯有在深刻理解自己业务场景和各种分布式存储技术特点的基础上,进行各种权衡考虑,选择最合适的解决方案,并想办法弥补其缺陷,才能真正解决问题。
我在架构模块第一篇就讨论了垂直伸缩和水平伸缩这两种不同的架构思路。因为各种原因,互联网应用主要采用的是水平伸缩,也就是各种分布式技术。事实上,在数据存储方面,有时候采用垂直伸缩,也就是使用更好的硬件服务器部署数据库,也是一种不错的改善数据存储能力的手段。
思考题
分布式架构的一个最大特点是可以动态伸缩可以随着需求变化动态增加或者减少服务器。对于支持分片的分布式关系数据库而言比如我们使用MYCAT进行数据分片那么随着数据量逐渐增大如何增加服务器以存储更多的数据呢如果增加一台服务器如何调整数据库分片使部分数据迁移到新的服务器上如何保证整个迁移过程快速、安全
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,91 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
26 搜索引擎架构:如何瞬间完成海量数据检索?
我们在使用搜索引擎的时候搜索结果页面会展示搜索到的结果数目以及花费时间。比如用Google搜索中文“后端技术”这个词会显示找到约6.7亿条结果用时0.45秒。
我们知道Google收录了全世界几乎所有的公开网页这是一个非常庞大的数目那么Google是如何做到在如此短的时间内完成了如此庞大的数据搜索呢
搜索引擎倒排索引
数据的搜索与查找技术是计算机软件的核心算法,这方面已有非常多的技术和实践。而对于搜索引擎来说,要对海量文档进行快速内容检索,主要使用的是倒排索引技术。
像Google这样一个互联网搜索引擎首先需要通过网络爬虫获取全球的公开网页。那么搜索引擎如何知道全世界的网页都在哪里呢
事实上,互联网一方面是将全世界的人和网络应用联系起来,另一方面,也将全世界的网页通过超链接联系起来,几乎每个网页都包含了一些其他网页的超链接,这些超链接互相链接,就让全世界的互联网构成了一个大的网络。所以,搜索引擎只需要解析这些网页,得到里面的超链接,然后继续下载这些超链接的网页,继续解析,这样就可以得到全世界的网页了。
这个过程具体是这样的。首先选择一些种子URL然后通过爬虫将这些URL对应的页面爬下来。其实所谓的爬虫就是发送URL请求下载相应的HTML页面然后将这些Web页面存储在自己的服务器上并解析这些页面的HTML内容当解析到网页里超链接URL的时候再检查这个超链接是否已经在前面爬取过了如果没有就把这个超链接放到一个队列中后面会请求这个URL得到对应的HTML页面并解析其包含的超链接……如此不断重复就可以将全世界的Web页面存储到自己的服务器中。
爬虫系统架构如下:
得到了全部网页以后,需要对每个网页进行编号,得到全部网页的文档集合。然后再解析每个页面,提取文档里的每个单词,如果是英文,那么每个单词都用空格分隔,比较容易;如果是中文,需要使用中文分词器才能提取到每个单词,比如“后端技术”,使用中文分词器得到的就是“后端”、“技术”两个词。
然后考察每个词在哪些文档中出现比如“后端”在文档2、4、5、7中出现“技术”在文档1、2、4中出现这样我们就可以得到一个单词、文档矩阵
把这个单词、文档矩阵按照单词→文档列表的方式组织起来,就是倒排索引了:
我们这个例子中只有2个单词、7个文档。事实上Google数以万亿的网页就是这样通过倒排索引组织起来的网页数量虽然不可思议地庞大但是单词数却是比较有限的所以整个倒排索引的大小相比网页数量要小得多。Google将每个单词的文档列表存储在硬盘中而对于文档数量没那么大的应用而言文档列表也可以存储在内存中。每个单词记录下硬盘或者内存中的文档列表地址搜索的时候只要搜索到单词就可以快速得到文档地址列表。根据列表中的文档编号展示对应的文档信息就完成了海量数据的快速检索。
而搜索单词的时候我们可以将所有单词构成一个Hash表根据搜索词直接查找Hash表就可以得到单词了。如果搜索词是“后端”那么快速得到文档列表有4个如果搜索词是“后端技术”那么首先需要对搜索词进行分词得到“后端”、“技术”两个搜索单词分别得到这两个单词的文档列表然后将这两个文档列表求交集也很快可以得到搜索结果有两个。
虽然搜索引擎利用倒排索引已经可以很快得到搜索结果了,但是实践中,搜索引擎应用还会使用缓存对搜索进行加速,将整个搜索词对应的搜索结果直接放入缓存,以减少倒排索引的访问压力,以及不必要的集合计算。
搜索引擎结果排序
有了倒排索引虽然可以快速得到搜索结果了但是如果搜索结果比较多哪些文档应该优先展示给用户呢我们使用Google搜索“后端技术”的时候虽然Google告诉我们搜索结果有6.7亿个但是我们通常在搜索结果列表的头几个就能找到想要的结果而列表越往后结果也越不是我们想要的。Google是如何知道我们想要的结果是哪些呢这样的搜索结果展示显然是排过序的那搜索引擎的结果是如何排序的呢
事实上Google使用了一种叫PageRank的算法计算每个网页的权重搜索结果就按照权重排序权重高的网页在最终结果显示的时候排在前面。为什么权重高的网页正好就是用户想要看到的呢我们先看下这个网页权重算法即PageRank算法。
PageRank算法认为如果一个网页里包含了某个网页的超链接那么就表示该网页认可某个网页或者说该网页给某个网页投了一票。如下A、B、C、D四个网页箭头指向的方向就是表示超链接的方向B的箭头指向A表示B网页包含A网页的超链接也就是B网页给A网页投了一票。
开始的时候所有网页都初始化权重值为1然后根据超链接关系计算新的权重。比如B页面包含了A和D两个页面的超链接那么自己的权重1就被分成两个1/2分别投给A和D。而A页面的超链接包含在B、C、D三个页面中那么A页面新的权重值就是这个三个页面投给它的权重值之和1/2 + 13 + 1 = 11/6。
经过一轮PageRank计算后每个页面都有了新的权重然后基于这个新的权重再继续一轮计算直到所有的网页权重稳定下来就得到最终所有网页的权重即最终的PageRank值。
通常在一个网页中包含了另一个网页是对另一个网页的认可认为这个网页质量高值得推荐。而被重要网页推荐的网页也应该是重要的PageRank算法就是对这一设想的实现PageRank值代表了一个网页受到的推荐程度越受推荐越重要就越是用户想看到的。基于每个网页的PageRank值对倒排索引中的文档列表进行排序排在前面的文档通常也是用户想要看到的文档。
PageRank算法对于互联网网页排序效果很好但是对于那些用户生成内容UGC的网站而言比如豆瓣、知乎或者我们的InfoQ如果想在这些网站内部进行搜索PageRank算法就没什么效果了。因为豆瓣的影评知乎的回答InfoQ的技术文章之间很少通过超链接进行推荐。
那么要相对这些站内搜索引擎的结果进行排序就需要利用其它一些信息以及算法比如可以利用文章获得的点赞数进行排序点赞越多表示越获得其它用户的认可越应该在搜索结果中排在前面。利用点赞数排序或者PageRank排序都是利用内容中存在的推荐信息排序而这些推荐信息来自于广大参与其中的人因此这些算法实现也被称作“集体智慧编程”。
除了用点赞数进行排序有时候我们更期望搜索结果按照内容和搜索词的相关性进行排序比如我在infoq.cn搜索PageRank我其实并不想看那些点赞很多但是只提到一点点PageRank的文章而想看主要讲PageRank算法的文章。
这种情况可以使用词频TF进行排序词频表示某个词在该文档中出现的频繁程度也代表了这个词和该文档的相关程度。词频公式如下
使用豆瓣电影进行搜索的时候,豆瓣的搜索结果主要是电影名中包含了搜索词的电影,比如我们搜索“黑客”这个词,豆瓣的搜索结果列表就是以“黑客”为电影名的电影。
但是,如果我想搜索电影内容是关于黑客的,但是标题里可能没有“黑客”两个字的电影,豆瓣的搜索就无能为力了。几年前,我自己专门写了一个电影搜索引擎,利用豆瓣的影评内容建立倒排索引,利用词频算法进行排序,搜索的结果如下,这个结果更符合我对电影搜索引擎的期待。
如果你对这个搜索引擎有兴趣源代码的地址在这里https://github.com/itisaid/sokeeper
小结
事实上搜索引擎技术不只是用在Google这样的搜索引擎互联网应用中对于大多数应用而言如果想要对稍具规模的数据进行快速检索都需要使用搜索引擎技术。而对于淘宝这样的平台型应用搜索引擎技术甚至驱动其核心商业模式。一方面淘宝海量的商品需要通过搜索引擎完成查找另一方面淘宝的主要盈利来自于搜索引擎排名。所以本质上淘宝的核心技术和盈利模式跟百度、Google都是一样的。
思考题
文中我们讨论了PageRank算法如果只有几百个网页那么写一个程序计算每个网页PageRank就可以了但是如果是Google这样万亿级的网页网页之间的超链接关系数量更加庞大而PageRank算法又需要多轮计算如何才能较快地计算出所有网页的PageRank值呢
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,91 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
27 微服务架构:微服务究竟是灵丹还是毒药?
我们在使用搜索引擎的时候搜索结果页面会展示搜索到的结果数目以及花费时间。比如用Google搜索中文“后端技术”这个词会显示找到约6.7亿条结果用时0.45秒。
我们知道Google收录了全世界几乎所有的公开网页这是一个非常庞大的数目那么Google是如何做到在如此短的时间内完成了如此庞大的数据搜索呢
搜索引擎倒排索引
数据的搜索与查找技术是计算机软件的核心算法,这方面已有非常多的技术和实践。而对于搜索引擎来说,要对海量文档进行快速内容检索,主要使用的是倒排索引技术。
像Google这样一个互联网搜索引擎首先需要通过网络爬虫获取全球的公开网页。那么搜索引擎如何知道全世界的网页都在哪里呢
事实上,互联网一方面是将全世界的人和网络应用联系起来,另一方面,也将全世界的网页通过超链接联系起来,几乎每个网页都包含了一些其他网页的超链接,这些超链接互相链接,就让全世界的互联网构成了一个大的网络。所以,搜索引擎只需要解析这些网页,得到里面的超链接,然后继续下载这些超链接的网页,继续解析,这样就可以得到全世界的网页了。
这个过程具体是这样的。首先选择一些种子URL然后通过爬虫将这些URL对应的页面爬下来。其实所谓的爬虫就是发送URL请求下载相应的HTML页面然后将这些Web页面存储在自己的服务器上并解析这些页面的HTML内容当解析到网页里超链接URL的时候再检查这个超链接是否已经在前面爬取过了如果没有就把这个超链接放到一个队列中后面会请求这个URL得到对应的HTML页面并解析其包含的超链接……如此不断重复就可以将全世界的Web页面存储到自己的服务器中。
爬虫系统架构如下:
得到了全部网页以后,需要对每个网页进行编号,得到全部网页的文档集合。然后再解析每个页面,提取文档里的每个单词,如果是英文,那么每个单词都用空格分隔,比较容易;如果是中文,需要使用中文分词器才能提取到每个单词,比如“后端技术”,使用中文分词器得到的就是“后端”、“技术”两个词。
然后考察每个词在哪些文档中出现比如“后端”在文档2、4、5、7中出现“技术”在文档1、2、4中出现这样我们就可以得到一个单词、文档矩阵
把这个单词、文档矩阵按照单词→文档列表的方式组织起来,就是倒排索引了:
我们这个例子中只有2个单词、7个文档。事实上Google数以万亿的网页就是这样通过倒排索引组织起来的网页数量虽然不可思议地庞大但是单词数却是比较有限的所以整个倒排索引的大小相比网页数量要小得多。Google将每个单词的文档列表存储在硬盘中而对于文档数量没那么大的应用而言文档列表也可以存储在内存中。每个单词记录下硬盘或者内存中的文档列表地址搜索的时候只要搜索到单词就可以快速得到文档地址列表。根据列表中的文档编号展示对应的文档信息就完成了海量数据的快速检索。
而搜索单词的时候我们可以将所有单词构成一个Hash表根据搜索词直接查找Hash表就可以得到单词了。如果搜索词是“后端”那么快速得到文档列表有4个如果搜索词是“后端技术”那么首先需要对搜索词进行分词得到“后端”、“技术”两个搜索单词分别得到这两个单词的文档列表然后将这两个文档列表求交集也很快可以得到搜索结果有两个。
虽然搜索引擎利用倒排索引已经可以很快得到搜索结果了,但是实践中,搜索引擎应用还会使用缓存对搜索进行加速,将整个搜索词对应的搜索结果直接放入缓存,以减少倒排索引的访问压力,以及不必要的集合计算。
搜索引擎结果排序
有了倒排索引虽然可以快速得到搜索结果了但是如果搜索结果比较多哪些文档应该优先展示给用户呢我们使用Google搜索“后端技术”的时候虽然Google告诉我们搜索结果有6.7亿个但是我们通常在搜索结果列表的头几个就能找到想要的结果而列表越往后结果也越不是我们想要的。Google是如何知道我们想要的结果是哪些呢这样的搜索结果展示显然是排过序的那搜索引擎的结果是如何排序的呢
事实上Google使用了一种叫PageRank的算法计算每个网页的权重搜索结果就按照权重排序权重高的网页在最终结果显示的时候排在前面。为什么权重高的网页正好就是用户想要看到的呢我们先看下这个网页权重算法即PageRank算法。
PageRank算法认为如果一个网页里包含了某个网页的超链接那么就表示该网页认可某个网页或者说该网页给某个网页投了一票。如下A、B、C、D四个网页箭头指向的方向就是表示超链接的方向B的箭头指向A表示B网页包含A网页的超链接也就是B网页给A网页投了一票。
开始的时候所有网页都初始化权重值为1然后根据超链接关系计算新的权重。比如B页面包含了A和D两个页面的超链接那么自己的权重1就被分成两个1/2分别投给A和D。而A页面的超链接包含在B、C、D三个页面中那么A页面新的权重值就是这个三个页面投给它的权重值之和1/2 + 13 + 1 = 11/6。
经过一轮PageRank计算后每个页面都有了新的权重然后基于这个新的权重再继续一轮计算直到所有的网页权重稳定下来就得到最终所有网页的权重即最终的PageRank值。
通常在一个网页中包含了另一个网页是对另一个网页的认可认为这个网页质量高值得推荐。而被重要网页推荐的网页也应该是重要的PageRank算法就是对这一设想的实现PageRank值代表了一个网页受到的推荐程度越受推荐越重要就越是用户想看到的。基于每个网页的PageRank值对倒排索引中的文档列表进行排序排在前面的文档通常也是用户想要看到的文档。
PageRank算法对于互联网网页排序效果很好但是对于那些用户生成内容UGC的网站而言比如豆瓣、知乎或者我们的InfoQ如果想在这些网站内部进行搜索PageRank算法就没什么效果了。因为豆瓣的影评知乎的回答InfoQ的技术文章之间很少通过超链接进行推荐。
那么要相对这些站内搜索引擎的结果进行排序就需要利用其它一些信息以及算法比如可以利用文章获得的点赞数进行排序点赞越多表示越获得其它用户的认可越应该在搜索结果中排在前面。利用点赞数排序或者PageRank排序都是利用内容中存在的推荐信息排序而这些推荐信息来自于广大参与其中的人因此这些算法实现也被称作“集体智慧编程”。
除了用点赞数进行排序有时候我们更期望搜索结果按照内容和搜索词的相关性进行排序比如我在infoq.cn搜索PageRank我其实并不想看那些点赞很多但是只提到一点点PageRank的文章而想看主要讲PageRank算法的文章。
这种情况可以使用词频TF进行排序词频表示某个词在该文档中出现的频繁程度也代表了这个词和该文档的相关程度。词频公式如下
使用豆瓣电影进行搜索的时候,豆瓣的搜索结果主要是电影名中包含了搜索词的电影,比如我们搜索“黑客”这个词,豆瓣的搜索结果列表就是以“黑客”为电影名的电影。
但是,如果我想搜索电影内容是关于黑客的,但是标题里可能没有“黑客”两个字的电影,豆瓣的搜索就无能为力了。几年前,我自己专门写了一个电影搜索引擎,利用豆瓣的影评内容建立倒排索引,利用词频算法进行排序,搜索的结果如下,这个结果更符合我对电影搜索引擎的期待。
如果你对这个搜索引擎有兴趣源代码的地址在这里https://github.com/itisaid/sokeeper
小结
事实上搜索引擎技术不只是用在Google这样的搜索引擎互联网应用中对于大多数应用而言如果想要对稍具规模的数据进行快速检索都需要使用搜索引擎技术。而对于淘宝这样的平台型应用搜索引擎技术甚至驱动其核心商业模式。一方面淘宝海量的商品需要通过搜索引擎完成查找另一方面淘宝的主要盈利来自于搜索引擎排名。所以本质上淘宝的核心技术和盈利模式跟百度、Google都是一样的。
思考题
文中我们讨论了PageRank算法如果只有几百个网页那么写一个程序计算每个网页PageRank就可以了但是如果是Google这样万亿级的网页网页之间的超链接关系数量更加庞大而PageRank算法又需要多轮计算如何才能较快地计算出所有网页的PageRank值呢
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,133 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
28 高性能架构:除了代码,你还可以在哪些地方优化性能?
系统性能是互联网应用最核心的非功能性架构目标,系统因为高并发访问引起的首要问题就是性能问题:高并发访问的情况下,系统因为资源不足,处理每个请求的时间都会变慢,看起来就是性能变差。
因此性能优化是互联网架构师的核心职责之一通常我们想到性能优化首先想到的就是优化代码。事实上一个系统是由很多方面组成的所有这些方面都可以进行优化就是我们接下来要讲的7层优化。
进行性能优化的一个首要前提是,我们必须知道系统当前的性能状况,然后才能进行性能优化。而了解系统性能状况必须通过性能测试,我们先看下性能测试。
性能指标
所谓性能测试,就是模拟用户请求,对系统施加高并发的访问压力,观察系统的性能指标。系统性能指标主要有响应时间、并发数、吞吐量和性能计数器。
所谓响应时间,是指从发出请求开始到收到最后响应数据所需要的时间。响应时间是系统最重要的性能指标,最直接地反映了系统的快慢。
并发数是指系统同时处理的请求数,这个数字反映了系统的负载压力情况。性能测试的时候,通常在性能压测工具中,用多线程模拟并发用户请求,每个线程模拟一个用户请求,这个线程数就是性能指标中的并发数。
吞吐量是指单位时间内系统处理请求的数量体现的是系统的处理能力。我们一般用每秒HTTP请求数HPS、每秒事务数TPS、每秒查询数QPS这样的一些指标来衡量。
吞吐量、响应时间和并发数三者之间是有关联性的。并发数不变响应时间足够快那么单位时间的吞吐量就会相应的提高。比如说并发数是1响应时间如果是100ms那么TPS就可以是10。如果响应时间是500ms但是TPS吞吐量就变成了2。
性能计数器,指的是服务器或者操作系统性能的一些指标数据,包括系统负载 System Load、对象和线程数、内存使用、CPU使用、磁盘和网络I/O使用等指标这些指标是系统监控的重要参数反映系统负载和处理能力的一些关键指标通常这些指标和性能是强相关的。这些指标很高成为瓶颈通常也预示着性能可能会出现问题。在实践中运维和开发人员会对这些性能指标设置一些报警的阈值。当监控系统发现性能计数器超过阈值的时候就会向运维和开发人员报警以便及时发现、处理系统的性能问题。
性能测试
性能测试是使用性能测试工具,通过多线程模拟用户请求对系统施加高并发的访问压力,得到以上这些性能指标。事实上,性能测试随着性能测试工具逐渐增加请求线程数,系统的吞吐量和响应时间会呈现出不同的性能特性。具体说来,整个测试过程又可细分为性能测试、负载测试、压力测试三个阶段。
性能测试是指以系统设计初期规划的性能指标为预期目标,对系统不断地施加压力,验证系统在资源可接受的范围内是否达到了性能的预期目标。这个过程中,随着并发数的增加,吞入量也在增加,但是响应时间变化不大。系统正常情况下的并发访问压力应该都在这个范围内。
负载测试则是对系统不断地施加并发请求,增加系统的压力,直到系统的某项或多项指标达到安全临界值。这个过程中,随着并发数的增加,吞吐量只有小幅的增加,达到最大值后,吞吐量还会下降,而响应时间则会不断增加。
压力测试是指在超过安全负载的情况下增加并发请求数对系统继续施加压力直到系统崩溃或者不再处理任何请求此时的并发数就是系统的最大压力承受能力。这个过程中吞吐量迅速下降响应时间迅速增加到了系统崩溃点吞吐量为0响应时间无穷大。
性能压测工具不断增加并发请求线程数持续对系统进行性能测试、负载测试、压力测试得到对应的TPS和响应时间将这些指标画在一个坐标系里就得到系统的性能特性曲线。
除了测出性能指标,性能测试有时候还需要进行稳定性测试。稳定性测试是指持续地对被测试系统施加一定的并发访问压力,使系统运行较长一段时间,以此检测系统是否稳定。通常,线上系统的负载压力是不稳定的,有时候,为了更好地模拟线上访问压力,稳定性测试的并发访问压力也可以不断调整压测线程数,在不稳定的并发压力下,测试系统的稳定性。
性能优化
一个系统是由很多方面构成的,程序只是这个系统的一小部分,因此进行性能优化的时候,也需要从系统的角度出发,综合考虑优化方案。
用户体验优化
性能优化的最终目的是让用户有更好的性能体验所以性能优化最直接的其实是优化用户体验。同样500毫秒的响应时间如果收到全部响应数据后才开始显示给用户相比收到部分数据就开始显示对用户的体验就完全不一样。同样在等待响应结果的时候只显示一个空白的页面和显示一个进度条用户感受到的性能也是完全不同的。
除了用户体验优化这种比较主观的性能优化,即使我们想要真正优化性能指标,进行客观的性能优化,我们也可以从系统的角度,全方位考虑系统的各个方面。
从系统的宏观层面逐渐往下看可以在7个层面进行性能优化。
第一层:数据中心优化
首先是数据中心性能优化我们开发的软件是部署在数据中心的对于一个全球访问的互联网应用而言如果只有一个数据中心那么最远的用户访问这个数据中心即使以光速进行网络通信一次请求响应的网络通信时间也需要130多毫秒。这已经是一个人可以明显感受到的响应延迟了。
所以,现在大型的互联网应用基本都采用多数据中心方案,在全球各个主要区域都部署自己的数据中心,就近为区域用户提供服务,加快响应速度。
第二层:硬件优化
我在专栏文章[21篇]讲分布式架构时,就对比分析了垂直伸缩和水平伸缩两种架构方案。事实上,即便使用水平伸缩,在分布式集群服务器内部,依然可以使用垂直伸缩,优化服务器的硬件能力。有时候,硬件能力的提升,对系统性能的影响是非常巨大的。
我在做Spark性能优化时发现网络通信是整个计算作业的一个重要瓶颈点。
我们看到在使用1G网卡的情况下某些计算阶段的网络通信开销时间需要50多秒。如果用软件优化的方法进行数据压缩一方面提升有限另一方面还需要消耗大量CPU的资源使CPU资源成为瓶颈。
后来通过硬件升级的办法进行优化使用10G网卡替换1G网卡网络通信时间消耗得到极大改善。
原来需要50多秒的通信时间现在只需要10多秒就可以完成整个作业计算时间也大大缩短。硬件优化效果明显。
第三层:操作系统优化
不同操作系统以及操作系统内的某些特性也会对软件性能有重要影响。还是Spark性能优化的例子在分析作业运行期CPU消耗的数据时我发现在分布式计算的某些服务器上操作系统自身消耗的CPU占比特别高。
图中蓝色部分是系统占用CPU红色部分是Spark程序占用CPU某些时候系统占用CPU比Spark程序占用CPU还高。经过分析发现在某些版本的Linux中transparent huge page这个参数是默认打开的导致系统占用CPU过高。关闭这个参数后系统CPU占用下降整个计算时间也大幅缩短了。
第四层:虚拟机优化
像Java这样的编程语言开发的系统是需要运行在JVM虚拟机里的虚拟机的性能对系统的性能也有较大影响特别是垃圾回收可能会导致应用程序出现巨大的卡顿。关于JVM虚拟机优化的有关原理可以参考《[Java虚拟机原理JVM为什么被称为机器machine]》
第五层:基础组件优化
在虚拟机之下应用程序之上还需要依赖各种基础组件比如Web容器数据库连接池MVC框架等等。这些基础组件的性能也会对系统性能有较大影响。
第六层:架构优化
我们这个模块就是讨论各种互联网技术架构,大部分技术架构方案也是用来提升系统性能的。主要有缓存、消息队列、集群。
缓存:通过从缓存读取数据,加快响应时间,减少后端计算压力,缓存主要是提升读的性能。
消息队列:通过将数据写入消息队列,异步进行计算处理,提升系统的响应时间和处理速度,消息队列主要是提升写的性能。
集群:将单一服务器进行伸缩,构建成一个集群完成同一种计算任务,从而提高系统在高并发压力时候的性能。各种服务器都可以构建集群,应用集群、缓存集群、数据库集群等等。
第七层:代码优化
通过各种编程技巧和设计模式提升代码的执行效率,也是我们最能控制的一个优化手段。具体技巧有:
使用合理的数据结构优化性能,可参考《[数据结构原理Hash表的时间复杂度为什么是O(1)]》。
编写性能更好的SQL语句以及使用更好的数据库访问方式可参考《[数据库原理PrepareStatement为什么性能好又安全]》。
实现异步I/O与异步方法调用避免不必要的阻塞可参考《[反应式编程框架设计:如何使程序调用不阻塞等待、立即响应?]》
此外,还可以使用线程池、连接池等对象池化技术,复用资源,减少资源的创建。当然最重要的还是利用各种设计模式和设计原则,开发清晰、易维护的代码。因为一团糟的代码里面有什么性能问题谁也搞不清楚,也没办法优化。
小结
性能优化的一般步骤是:首先进行性能测试,根据测试结果进行性能分析,寻找性能的瓶颈点,然后针对瓶颈进行优化,优化完成后继续进行性能测试,观察性能是否有所改善,是否达到预期的性能目标,如果没有达到目标,继续分析新的瓶颈点,不断迭代优化。
性能优化的一个前提是需要进行性能测试,了解系统的性能指标,才能有目标地进行性能优化。另一个前提是,必须要了解系统的内部结构,能够分析得到引起性能问题的原因所在,并能够解决问题。
因此性能优化是对一个架构师技能和经验的全面挑战,是架构师的必备技能之一。
思考题
除了文中提到的这些性能优化手段,还有哪些优化手段?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流。

View File

@ -0,0 +1,107 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
29 高可用架构:我们为什么感觉不到淘宝应用升级时的停机?
十几年前我参加阿里巴巴面试的时候觉得阿里巴巴这样的网站Web应用开发简直小菜因为我之前是做类似Tomcat这样的Web容器开发的所以面试的时候信心满满。
确实,面试官前面的问题都是关于数据结构、操作系统、设计模式的,也就是我们这个专栏模块一和模块二的内容。我感觉自己回答得还不错,所以更加信心满满。这时候,面试官忽然提了一个问题:
我们的Web程序每个星期都会发布一个新版本但是程序要求7*24小时可用也就是说启动新版本程序替换老程序进行程序升级的时候程序还在对外提供服务用户没有感觉到停机我们是怎么做到的呢
应用程序升级必须要用新版本的程序包替代老版本的程序包,并重新启动程序,这段时间程序是不能对外提供服务的,用户请求一定会失败。但是阿里巴巴让这段时间的用户请求依然是成功的。打个比方,就是要在飞机飞行过程中更换发动机,还不能让乘客感觉到。这个问题当时完全不在我的知识范围之内,但是我知道这个需求场景是真实存在的,而且确实应该是可以做到的,可是我完全不知道是怎么做到的。
面试官看我瞠目结舌,笑着问我,想不想知道答案。我立刻回答说想知道,结果面试官跟我说,加入我们团队你就知道了。
这其实是一个关于互联网应用可用性的问题。我们知道Web应用在各种情况下都有可能不可访问也就是不可用。各种硬件故障比如应用服务器及数据库宕机、网络交换机宕机、磁盘损坏、网卡松掉等等。还有各种软件故障程序Bug什么的。即使没有Bug程序要升级必须要关闭进程重新启动这段时间应用也是不可用的此外还有外部环境引发的不可用比如促销引来大量用户访问导致系统并发压力太大而崩溃以及黑客攻击、机房火灾、挖掘机挖断光缆各种情况导致的应用不可用。
而互联网的高可用是说,在上面各种情况下,应用都要是可用的,用户都能够正常访问系统,完成业务处理。
这似乎是不可能的任务。
高可用的度量
首先我们看下什么叫做应用的高可用以及可用性如何度量。业界通常用多少个9来说明互联网应用的可用性。比如说淘宝的可用性是4个9就是说淘宝的服务99.99%可用。这句话的意思是淘宝的服务要保证在所有的运行时间里只有0.01%不可用也就是说一年大概有53分钟不可用。这个99.99%就叫做系统的可用性指标,这个值的计算公式是:
一般说来两个9表示系统基本可用年度不可用时间小于88小时3个9是较高可用年度不可用时间小于9个小时4个9是具有自动恢复能力的高可用年度不可用时间小于53分钟5个9指极高的可用性年度不可用时间小于5分钟。我们熟悉的互联网产品的可用性大多是4个9。淘宝、百度、微信差不多都是这样。
下面我会讨论各种高可用技术方案。但不管是哪种方案,实现高可用需要投入的技术和设备成本都非常高。因此可用性并不是越高越好,而是要根据产品策略寻找高可用投入产出的最佳平衡点,像支付宝这样的金融产品就需要更高的可用性,而微博的可用性要求就会相对低一些。
可用性指标是对系统整体可用性的一个度量。在互联网企业中为了更好地管理系统的可用性界定好系统故障以后的责任通常会用故障分进行管理。一般过程是根据系统可用性指标换算成一个故障分这个故障分是整个系统的故障分比如10万分然后根据各自团队各个产品各个职能角色承担的责任的不同把故障分下发给每个团队直到每个人也就是说每个工程师在年初的时候就会收到一个预计的故障分。然后每一次系统出现可用性故障的时候都会进行故障考核划定到具体的团队和责任人以后会扣除他的故障分。如果到了年底的时候如果一个工程师的故障分为负分那么很有可能会影响他的绩效考核。
高可用的架构
系统的高可用架构就是要在上述各种故障情况下,保证系统依然可以提供服务,具体包含以下几种架构方案。我们已经在前面几篇架构专栏中提到过这些架构方案,这里我们从高可用的视角重新审视以下这些架构是如何实现高可用的。
冗余备份
既然各种服务器故障是不可避免的,那么架构设计上就要保证,当服务器故障的时候,系统依然可以访问。具体上就是要实现服务器的冗余备份。
冗余备份是说,提供同一服务的服务器要存在冗余,即任何服务都不能只有一台服务器,服务器之间要互相进行备份,任何一台服务器出现故障的时候,请求可以发送到备份的服务器去处理。这样,即使某台服务器失效,在用户看来,系统依然是可用的。
我在负载均衡架构这篇文章中讲了通过负载均衡服务器,将多台应用服务器构成一个集群共同对外提供服务,这样可以利用多台应用服务器的计算资源,满足高并发的用户访问请求。事实上,负载均衡还可以实现系统的高可用。
负载均衡服务器通过心跳检测发现集群中某台应用服务器失效,然后负载均衡服务器就不将请求分发给这台服务器,对用户而言,也就感觉不到有服务器失效,系统依然可用。
回到我们开头的问题阿里巴巴就是用这种方法实现的。应用程序升级的时候停止应用进程但是不影响用户访问。因为应用程序部署在多台服务器上应用程序升级的时候每次只STOP一台或者一部分服务器在这些机器上进行程序升级这个时候集群中还有其他服务器在提供服务器因此用户感觉不到服务器已经停机了。
此外我在数据存储架构这篇文章中提到的数据库主主复制也是一种冗余备份。这个时候不只是数据库系统RDBMS互相进行冗余备份数据库里的数据也要进行冗余备份一份数据存储在多台服务器里保证当任何一台服务器失效数据库服务依然可以使用。
失败隔离
保证系统高可用的另一个策略是失败隔离,将失败限制在一个较小的范围之内,使故障影响范围不扩大。具体实现失败隔离的主要架构技术是消息队列。
一方面,消息的生产者和消费者通过消息队列进行隔离。如果消费者出现故障的时候,生产者可以继续向消息队列发送消息,而不会感知到消费者的故障,等消费者恢复正常以后再去从消息队列中消费消息,所以从用户处理的视角看,系统一直是可用的。
发送邮件消费者出现故障,不会影响生产者应用的运行,也不会影响发送短信等其他消费者正常的运行。
另一方面,由于分布式消息队列具有削峰填谷的作用,所以在高并发的时候,消息的生产者可以将消息缓冲在分布式消息队列中,消费者可以慢慢地从消息队列中去处理,而不会将瞬时的高并发负载压力直接施加到整个系统上,导致系统崩溃。也就是将压力隔离开来,使消息生产者的访问压力不会直接传递到消息的消费者,这样可以提高数据库等对压力比较敏感的服务的可用性。
同时消息队列还使得程序解耦将程序的调用和依赖隔离开来我们知道低耦合的程序更加易于维护也可以减少程序出现Bug的几率。
限流降级
限流和降级也是保护系统高可用的一种手段。在高并发场景下,如果系统的访问量超过了系统的承受能力,可以通过限流对系统进行保护。限流是指对进入系统的用户请求进行流量限制,如果访问量超过了系统的最大处理能力,就会丢弃一部分的用户请求,保证整个系统可用,保证大部分用户是可以访问系统的。这样虽然有一部分用户的请求被丢弃,产生了部分不可用,但还是好过整个系统崩溃,所有的用户都不可用要好。
降级是保护系统的另一种手段。有一些系统功能是非核心的,但是它也给系统产生了非常大的压力,比如说在电商系统中有确认收货这个功能,即便我们不去确认收货,系统也会超时自动确认收货。
但实际上确认收货这个操作是一个非常重的操作,因为它会对数据库产生很大的压力:它要进行更改订单状态,完成支付确认,并进行评价等一系列操作。如果在系统高并发的时候去完成这些操作,那么会对系统雪上加霜,使系统的处理能力更加恶化。
解决办法就是在系统高并发的时候比如说像淘宝双11的时候当天可能整天系统都处于一种极限的高并发访问压力之下这时候就可以将确认收货、评价这些非核心的功能关闭将宝贵的系统资源留下来给正在购物的人让他们去完成交易。
异地多活
我们前面提到的各种高可用策略,都还是针对一个数据中心内的系统架构,针对服务器级别的软硬件故障而言的。但如果整个数据中心都不可用,比如说数据中心所在城市遭遇了地震,机房遭遇了火灾或者停电,这样的话,不管我们前面的设计和系统多么的高可用,系统依然是不可用的。
为了解决这个问题,同时也为了提高系统的处理能力和改善用户体验,很多大型互联网应用都采用了异地多活的多机房架构策略,也就是说将数据中心分布在多个不同地点的机房里,这些机房都可以对外提供服务,用户可以连接任何一个机房进行访问,这样每个机房都可以提供完整的系统服务,即使某一个机房不可使用,系统也不会宕机,依然保持可用。
异地多活的架构考虑的重点就是,用户请求如何分发到不同的机房去。这个主要可以在域名解析的时候完成,也就是用户进行域名解析的时候,会根据就近原则或者其他一些策略,完成用户请求的分发。另一个至关重要的技术点是,因为是多个机房都可以独立对外提供服务,所以也就意味着每个机房都要有完整的数据记录。用户在任何一个机房完成的数据操作,都必须同步传输给其他的机房,进行数据实时同步。
数据库实时同步最需要关注的就是数据冲突问题。同一条数据同时在两个数据中心被修改了该如何解决为了解决这种数据冲突的问题某些容易引起数据冲突的服务采用类似MySQL的主主模式也就是说多个机房在某个时刻是有一个主机房的某些请求只能到达主机房才能被处理其他的机房不处理这一类请求以此来避免关键数据的冲突。
小结
除了以上的高可用架构方案还有一些高可用的运维方案通过自动化测试减少系统的Bug通过自动化监控尽早发现系统的故障通过预发布验证发现测试环境无法发现的Bug灰度发布降低软件错误带来的影响以及评估软件版本升级带来的业务影响等等。
思考题
预发布验证是将一台线上生产环境的服务器当做预发布服务器,在进行应用升级的时候,先在预发布服务器上进行升级。软件工程师访问这台服务器,验证系统正常后,再发布到其他服务器上。
发布在这台预发布服务器上的应用即使存在Bug外部用户也不会感觉到这是为什么呢什么样的Bug是测试环境不能发现而需要到预发布服务器上才能发现的呢
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流。

View File

@ -0,0 +1,116 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
30 安全性架构:为什么说用户密码泄漏是程序员的锅?
系统安全是一个老生常谈又容易被忽视的问题,往往只有在系统被攻击了,数据泄漏了,才会关注软件安全问题。互联网应用因为要向全球用户提供服务,在任何地方都可以访问互联网应用,任何恶意的用户可以在世界任何地方对互联网系统发起攻击,因此互联网系统又具有天然的脆弱性。
在互联网各种安全问题中,最能引发话题,刺激大众神经的就是用户密码泄露。数据库被拖库,导致所有的数据泄露,这种系统安全问题涉及的因素可能有很多,大部分都和开发软件的程序员没有关系。但是因为数据库被拖库,黑客直接获得了用户密码等敏感信息,导致用户密码泄露就是程序员的责任了。
数据加解密
通过对用户密码、身份证号、银行卡号等敏感数据加密,保护数据安全,是软件安全性架构的一部分,是程序员和架构师的责任。
软件开发过程中,主要使用的加密方法有三种:单向散列加密、对称加密和非对称加密。
用户密码加密通常使用的是单向散列加密。所谓的单向散列加密是指对一串明文信息进行散列hash加密得到的密文信息是不可以被解密的也就是说给定一个密文即使是加密者也无法知道它的明文是什么的加密是单向的不支持解密。
单向散列加密事实上是一种hash算法。我们熟悉的MD5算法就是一种单向散列加密算法单向散列算法虽然无法通过对密文进行解密计算还原得到原始明文。但是如果知道了算法就可以通过彩虹表的方法进行破解。彩虹表是常用明文和密文的映射表很多人喜欢用生日做密码其实生日的组合是非常有限的轻易就可以建一个生日和密文的映射表。如果黑客得到了密文可以通过查表的办法得到密码明文。
因此在实践中使用单向散列算法加密还需要在计算过程中加点“盐”salt如果黑客不知道加的“盐”是什么就无法建立彩虹表还原得到明文。
单向散列加密的主要应用场景就是应用到用户密码加密上。加密和密码校验过程如下:
用户在注册的时候需要输入密码应用服务器得到密码以后调用单向散列加密算法对密码进行加密然后将加密后的密文存储到数据库中去。用户下一次登录的时候在客户端依然需要输入密码而用户输入的密码发送到Web服务器以后Web服务器对输入的密码再进行一次单向散列加密得到密文然后和从数据库中取出来的密文进行对比如果两个密文是相同的那么用户的登录验证就是成功的。通过这种手段可以保证用户密码的安全性即使数据库被黑客拖库也不会泄漏用户密码。
密码加密的时候也需要加点“盐”这种场景下每个用户加密的“盐”都可以不同比如用用户的ID作为盐这样可以增加破解的难度。
另一种加密手段是对称加密。
对称加密,顾名思义,就是使用一个加密算法和一个密钥,对一段明文进行加密以后得到密文,然后使用相同的密钥和对应的解密算法,对密文进行解密,就可以计算得到明文。对称加密主要用于加密一些敏感信息,对密文进行信息传输和存储,但是在使用的时候,必须要解密得到明文信息的一些场景。
比如说用户的信用卡卡号,很多互联网电商网站支持用户使用信用卡进行支付。但如果直接把信用卡号、有效期、安全码存储在数据库中是比较危险的,所以必须对这些信息进行加密,在数据库中存储密文。但是在使用的时候又必须要对密文进行解密,还原得到明文,才能够正常使用。所以这个时候就要使用对称加密算法,在存储的时候使用加密算法进行加密,在使用的时候使用解密算法进行解密。
还有一种加密被称作非对称加密。所谓的非对称加密是指在加密的时候使用一个加密算法和一个加密密钥进行加密,得到一个密文。在解密的时候,必须使用解密算法和解密密钥进行解密才能够还原得到明文,加密密钥和解密密钥完全不同。通常加密密钥被称作公钥,解密密钥被称作私钥。
非对称加密的典型应用场景就是我们常见的HTTPS。用户在客户端进行网络通讯的时候对数据使用加密密钥即公钥和加密算法进行加密得到密文。到了数据中心的服务器以后使用解密密钥即私钥和解密算法进行解密得到明文。
由于非对称加密需要消耗的计算资源比较多效率也比较差HTTPS并不是每次请求响应都用非对称加密而是先利用非对称加密在客户端和服务器之间交换一个对称加密的密钥然后每次请求响应都用对称加密。这样用非对称加密保证对称加密密钥的安全再用对称加密密钥保证请求响应数据的安全。
使用非对称加密,还可以实现数字签名。用数字签名的时候是反过来的,自己用私钥进行加密,得到一个密文,但是其他人可以用公钥将密文解开,因为私钥只有自己才拥有,所以等同于签名。一段经过自己私钥加密后的文本,文本内容就等于是自己签名认证过的。我在后面要讲到的区块链架构中,交易就使用非对称加密进行签名。
HTTP攻击与防护
互联网应用对外提供服务主要就是通过HTTP协议任何人都可以在任何地方通过HTTP协议访问互联网应用因此HTTP攻击是黑客攻击行为中门槛最低的攻击方式也是最常见的一种互联网攻击。而HTTP攻击中最常见的是SQL注入攻击和XSS攻击。
SQL注入攻击就是攻击者在提交的请求参数里面包含有恶意的SQL脚本。如下
如果在Web页面中有个输入框要求用户输入姓名普通用户输入一个普通的姓名Frank那么最后提交的HTTP请求如下
http://www.a.com?username=Frank
服务器在处理计算后向数据库提交的SQL查询命令如下
Select id from users where username='Frank';
但是恶意攻击者可能会提交这样的HTTP请求
http://www.a.com?username=Frank';drop table users;--
即输入的uername是
Frank';drop table users;--
这样服务器在处理后最后生成的SQL是这样的
Select id from users where username='Frank';drop table users;--';
事实上这是两条SQL一条select查询SQL一条drop table删除表SQL。数据库在执行完查询后就将users表删除了系统崩溃了。
SQL注入攻击我在[第6篇]讲到过最有效的防攻击手段是SQL预编译。Java开发的话最好使用PrepareStatement提交SQL而MyBatis等ORM框架主要的SQL提交方式就是用PrepareStatement。
XSS攻击即跨站点脚本攻击攻击者构造恶意的浏览器脚本文件使其在其他用户的浏览器上运行进而进行攻击。
攻击者发送一个含有恶意脚本的请求给被攻击的服务器,比如通过发布微博的方式向微博的服务器发送恶意请求,被攻击的服务器将恶意脚本存储到本地的数据库中,其他的正常用户通过被攻击的服务器浏览信息的时候,服务器会读取数据库中含有恶意脚本的数据,并向其展现给正常的用户,在正常用户的浏览器上执行,从而达到攻击的目的。
XSS攻击防御的主要手段是消毒检查用户提交的请求中是否含有可执行的脚本因为大部分的攻击请求都包含JS等脚本语法所以可以通过HTML转义的方式对比较有危险的脚本语法关键字进行转义。比如把“>”转义为“&gt”HTML显示的时候还是正常的“>”,但是这样的脚本无法在浏览器上执行,也就无法达到攻击的目的。
由于HTTP攻击必须以HTTP请求的方式提交到服务器因此可以在服务器的入口统一进行拦截对含有危险信息的请求比如drop tableJS脚本等进行消毒转义或者直接拒绝请求。即设置一个Web应用防火墙将危险请求隔离。
针对Web应用防火墙我们可以自己开发一个统一的请求过滤器进行拦截也可以使用ModSecurityhttp://www.modsecurity.org/这样的开源WAFWeb Application Firewall
小结
硬件指令和操作系统可能会有漏洞我们使用的各种框架和SDK可能也有漏洞这些漏洞从被发现到被公开再到官方修复漏洞可能会经过一个或长或短的时间这个时间内就可能被掌握这些漏洞的黑客利用攻击系统。
这种漏洞在官方修复之前,我们基本没有办法应对。但是黑客攻击也不是无意义的攻击,而是为了各种利益而来,很多时候是针对数据而来,做好数据加密存储与传输,即使是数据泄露了,黑客无法对数据解密,利用数据获利,也可以保护我们的数据资产。
同时加强请求的合法性检查避免主要的HTTP攻击及时更新生产环境的各种软件版本修复安全漏洞提高黑客攻击的难度使其投入产出不成比例从而营造一个相对安全的生产环境。
思考题
除了文中提到的HTTP攻击方式还有哪些比较常见的HTTP攻击对应的防护手段有哪些
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流。

View File

@ -0,0 +1,176 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
31 大数据架构:大数据技术架构的思想和原理是什么?
我在开篇词讲到,任何新技术都不是凭空产生的,都是在既有技术的基础之上,进行了一些创新性的组合扩展,应用到一些合适的场景之中,然后爆发出来巨大的生产力。后面几篇我要讲的大数据技术,区块链技术都是如此。
大数据技术其实是分布式技术在数据处理领域的创新性应用,本质和我们此前讲到的分布式技术思路一脉相承:用更多的计算机组成一个集群,提供更多的计算资源,从而满足更大的计算压力要求。
前面我们讨论的各种分布式缓存、负载均衡、分布式存储等都是讲如何在高并发的访问压力下,利用更多的计算机满足用户的请求访问压力。而大数据技术讨论的是,如何利用更多的计算机满足大规模的数据计算要求。
大数据就是将各种数据统一收集起来进行计算,发掘其中的价值。这些数据,既包括数据库的数据,也包括日志数据,还包括专门采集的用户行为数据;既包括企业内部自己产生的数据,也包括从第三方采购的数据,还包括使用网络爬虫获取的各种互联网公开数据。
面对如此庞大的数据,如何存储,如何利用大规模的服务器集群处理计算大量的数据,就是大数据技术的核心关键。
分布式文件存储HDFS架构
大规模数据计算首先要解决的是大规模数据的存储问题。如何将数百T数百P的数据存储起来通过一个文件系统统一管理这本身就是一个极大的挑战。
我曾在专栏[第5篇]讲过分布式文件系统HDFS的架构。
HDFS可以将数千台服务器组成一个统一的文件存储系统其中NameNode服务器充当文件控制块的角色进行文件元数据管理即记录文件名、访问权限、数据存储地址等信息而真正的文件数据则存储在DataNode服务器上。
DataNode以块为单位存储数据所有的块信息比如块ID、块所在的服务器IP地址等都记录在NameNode而具体的块数据则存储在DataNode上。理论上NameNode可以将所有DataNode服务器上的所有数据块都分配给一个文件也就是说一个文件可以使用所有服务器的硬盘存储空间达到数百P的大小。
此外HDFS为了保证不会因为硬盘或者服务器损坏而导致文件损坏还会对数据块进行复制每个数据块都会存储在多台服务器上甚至多个机架上。
大数据计算MapReduce架构
数据存储在HDFS上的最终目标还是为了计算进行数据分析或者机器学习从而获得有益的结果。但是如果像传统的应用程序那样把HDFS当做普通文件从文件读取数据进行计算那么对于需要一次计算数百T数据的大数据计算场景就不知道要算到什么时候了。
大数据处理的经典计算框架是MapReduce。MapReduce的核心思想是对数据进行分片计算。既然数据是以块为单位分布存储在很多台服务器组成的集群上那么能不能就在这些服务器上针对每个数据块进行分布式计算呢
事实上MapReduce将同一个计算程序启动在分布式集群的多台服务器上每个服务器上的程序进程都读取本服务器上要处理的数据块进行计算因此大量的数据就可以同时进行计算了。但是这样的话每个数据块的数据都是独立的如果这些数据块需要进行关联计算怎么办
MapReduce将计算过程分成两个部分一个是map过程每个服务器上会启动多个map进程map优先读取本地数据进行计算计算后输出一个集合。另一个是reduce过程MapReduce在每个服务器上都启动多个reduce进程然后对所有map输出的集合进行shuffle操作。所谓shuffle就是将相同的key发送到同一个reduce进程在reduce中完成数据关联计算。
我们以经典的WordCount也就是统计所有数据中相同单词的词频数据为例看看map和reduce的处理过程。
假设原始数据有两个数据块MapReduce框架启动两个map进程进行处理分别读入数据。map函数对输入数据进行分词处理然后针对每个单词输出<单词, 1>这样的结果。然后MapReduce框架进行shuffle操作相同的key发送给同一个reduce进程reduce的输入就是这样的结构即相同key的value合并成一个value列表。
在这个例子中这个value列表就是很多个1组成的列表。reduce对这些1进行求和操作就得到每个单词的词频结果了。具体的MapReduce程序如下
public class WordCount {
public static class TokenizerMapper
extends Mapper<Object, Text, Text, IntWritable>{
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
public void map(Object key, Text value, Context context
) throws IOException, InterruptedException {
StringTokenizer itr = new StringTokenizer(value.toString());
while (itr.hasMoreTokens()) {
word.set(itr.nextToken());
context.write(word, one);
}
}
}
public static class IntSumReducer
extends Reducer<Text,IntWritable,Text,IntWritable> {
private IntWritable result = new IntWritable();
public void reduce(Text key, Iterable<IntWritable> values,
Context context
) throws IOException, InterruptedException {
int sum = 0;
for (IntWritable val : values) {
sum += val.get();
}
result.set(sum);
context.write(key, result);
}
上面讲述了map和reduce进程合作完成数据处理的过程那么这些进程是如何在分布式的服务器集群上启动的呢数据是如何流动最终完成计算的呢我们以MapReduce1为例看下这个过程。
MapReduce1主要有JobTracker和TaskTracker两种进程角色JobTracker在MapReduce集群中只有一个而TaskTracker则和DataNode一起启动在集群的所有服务器上。
MapReduce应用程序JobClient启动后会向JobTracker提交作业JobTracker根据作业中输入文件路径分析需要在哪些服务器上启动map进程然后就向这些服务器上的TaskTracker发送任务命令。
TaskTracker收到任务后启动一个TaskRunner进程下载任务对应的程序然后反射加载程序中的map函数读取任务中分配的数据块进行map计算。map计算结束后TaskTracker会对map输出进行shuffle操作然后TaskRunner加载reduce函数进行后续计算。
HDFS和MapReduce都是Hadoop的组成部分。
大数据仓库Hive架构
MapReduce虽然只有map和reduce两个函数却几乎可以满足任何大数据分析和机器学习的计算场景。不过复杂的计算可能需要多个job才能完成这些job之间还需要根据其先后依赖关系进行作业编排开发比较复杂。
数据分析传统上主要使用SQL进行分析如果能根据SQL自动生成MapReduce那么可以极大降低大数据技术在数据分析领域的应用门槛。
Hive就是这样一个工具。我们看下对于如下一条常见的SQL语句Hive是如何将其转换成MapReduce计算的。
SELECT pageid, age, count(1) FROM pv_users GROUP BY pageid, age;
这是一条常见的SQL统计分析语句统计不同年龄的用户访问不同网页的兴趣偏好具体数据输入和执行结果示例如下。
我们看这个示例就会发现这个计算场景和WordCount很像。事实上也确实如此我们可以用MapReduce的计算过程完成这条SQL的处理。
map函数输出的key是表的行记录value是1reduce函数对相同的行记录也就是相同的key的value集合进行求和计算就得到最终的SQL输出结果了。
那么Hive要做的就是将SQL翻译成MapReduce程序代码实际上Hive内置了很多Operator每个Operator完成一个特定的计算过程Hive将这些Operator构造成一个有向无环图DAG然后根据这些Operator之间是否存在shuffle将其封装到map或者reduce函数就可以提交给MapReduce执行了。Operator组成的DAG图示例如下这是一个包含where查询条件的SQLwhere查询条件对应一个FilterOperator。
Hive整体架构如下Hive的表数据存储在HDFS。表的结构比如表名、字段名、字段之间的分隔符等存储在Metastore。用户通过Client提交SQL到DriverDriver请求Compiler将SQL编译成如上示例的DAG执行计划然后交给Hadoop执行。
快速大数据计算Spark架构
MapReduce主要使用硬盘存储计算过程中的数据这样虽然可靠性比较高但是性能其实比较差。此外MapReduce只能使用map和reduce函数进行编程虽然能够完成各种大数据计算但是编程比较复杂。而且受map和reduce编程模型简单的影响复杂的的计算必须组合多个MapReduce job才能完成编程难度进一步增加。
Spark在MapReduce基础上进行改进主要使用内存进行中间计算数据存储加快了计算执行时间在某些情况下性能可以提升上百倍。Spark的主要编程模型是RDD弹性数据集。在RDD上定义了许多常见的大数据计算函数利用这些函数可以用极少的代码完成较为复杂的大数据计算。前面举例的WorkCount如果用Spark编程只需要三行代码
val textFile = sc.textFile("hdfs://...")
val counts = textFile.flatMap(line => line.split(" "))
.map(word => (word, 1))
.reduceByKey(_ + _)
counts.saveAsTextFile("hdfs://...")
首先从HDFS读取数据构建出一个RDD textFile。然后在这个RDD上执行三个操作将输入数据的每一行文本用空格拆分成单词将每个单词进行转换word→(word, 1)生成的结构相同的Key进行统计统计方式是对Value求和。最后将RDD counts写入到HDFS完成结果输出。
上面代码中flatMap、map、reduceByKey都是Spark的RDD转换函数RDD转换函数的计算结果还是RDD所以上面三个函数可以写在一行代码最后得到的还是RDD。Spark会根据程序中的转换函数生成计算任务执行计划这个执行计划就是一个DAG。Spark可以在一个作业中完成非常复杂的大数据计算。
Spark DAG示例如下
如上所示A、C和E是从HDFS上加载的RDDA经过groupBy分组统计转换函数后得到RDD BC经过map转换函数后得到RDD DD和E经过union合并转换函数后得到RDD FB和F经过join连接转换函数后得到最终结果RDD G。
大数据流计算架构
Spark虽然比MapReduce快很多但是大多数场景下计算耗时依然是分钟级别的这种计算一般被称为大数据批处理计算。而在实际应用中有些时候需要在毫秒级完成不断输入的海量数据的计算处理比如实时对摄像头采集的数据进行监控分析这就是所谓的大数据流计算。
早期比较著名的流式大数据计算引擎是Storm后来随着Spark的火爆Spark上的流式计算引擎Spark Streaming也逐渐流行起来。Spark Streaming的架构原理是将实时流入的数据切分成小的一批一批的数据然后将这些小的一批数据交给Spark执行。由于数据量比较小Spark Streaming又常驻系统不需要重新启动因此可以毫秒级完成计算看起来像是实时计算一样。
最近几年比较流行的大数据引擎Flink其架构原理其实和Spark Streaming很相似随着数据源的不同根据数据量和计算场景的要求可以灵活适应流计算和批处理计算。
小结
大数据技术可以说是分布式技术的一个分支都是面临大量的计算压力采用分布式服务器集群的方案解决问题。差别是大数据技术要处理的数据具有关联性所以需要有个中心服务器进行管理NameNode、JobTracker都是这样的中心服务器。
思考题
SQL生成MapReduce计算的时候如果遇到join这样的SQL操作map函数和reduce函数该如何设计以如下SQL和输入数据为例
SELECT pv.pageid, u.age FROM page_view pv JOIN user u ON (pv.userid = u.userid);
page_view
user

View File

@ -0,0 +1,111 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
32 AI与物联网架构从智能引擎到物联网平台
当我们在说大数据技术的时候,说的可能是几种差别很大的技术。
一种是大数据底层技术指的就是各种大数据计算框架、存储系统、SQL引擎等等这些技术比较通用经过十几年的优胜劣汰主流的技术产品相对比较集中主要就是我上篇专栏讨论的MapReduce、Spark、Hive、Flink等技术产品。
一种是大数据平台技术Spark、Hive这些大数据底层技术产品不像我们前面讨论过的分布式缓存、分布式消息队列在处理用户请求的应用中使用这些技术产品的API接口就可以了。大数据计算的数据通常不是用户请求的数据计算时间也往往超过了一次用户请求响应能够接受的时间。但是大数据的计算结果又常常需要在用户交互过程中直接呈现比如电商常用的智能推荐用户购买一个商品系统会推荐可能感兴趣的商品这些推荐的商品就是大数据计算的结果。所以在互联网系统架构中需要把处理用户请求的在线业务系统和大数据计算系统打通。这就需要一个大数据平台来完成。
此外还有一种技术是数据分析与机器学习算法,上面提到的商品智能推荐就是这样一种算法,通过算法向用户呈现他感兴趣的商品,使互联网应用看起来好像有某种智能一样。
大数据平台架构
我们先看下大数据平台架构。上面说过,大数据平台主要就是跨越需要长时间处理的大数据计算和需要实时响应的互联网应用之间的鸿沟,使系统成为一个完整的整体。
一个典型的大数据平台架构如下:
整个大数据平台可以分为三个部分:数据采集、数据处理和数据输出。
首先要有数据数据主要有两个来源一方面是应用服务器以及前端App实时产生的数据、日志以及埋点采集的数据另一方面是外部爬虫和第三方数据。
通过大数据平台的数据同步系统这些数据导入到HDFS中。由于不同数据源格式不同数据源存储系统不同因此需要针对不同的数据源开发不同的同步系统。同时为了能够更好地对写入到HDFS的数据进行分析和挖掘还需要对这些数据进行清洗、转换因此数据同步系统实际上承担的是传统数据仓库ETL的职责即数据的抽取Extract、转换Transform、载入Load
写入到HDFS的数据会被MapReduce、Spark、Hive等大数据计算框架执行。数据分析师、算法工程师提交SQL以及MapReduce或者Spark机器学习程序到大数据平台。大数据平台的计算资源通常总是不足的因此这些程序需要在任务调度管理系统的调度下排队执行。
SQL或者机器学习程序的计算结果写回到HDFS然后再通过数据同步系统导出到数据库应用服务器就可以直接访问这些数据在用户请求的时候为用户提供服务了比如店铺访问统计数据或者智能推荐数据等。
所以有了大数据平台用户产生的数据就会被大数据系统进行各种关联分析与计算然后又应用于用户请求处理。只不过这个数据可能是历史数据比如淘宝卖家只能查看24小时前的店铺访问统计。
大数据计算也许需要几个小时甚至几天但是用户有时候可能需要实时得到数据。比如想要看当前的访问统计那么就需要用到大数据流计算了。来自数据源的数据实时进入大数据流计算引擎Spark Streaming等实时处理后写入数据库。这样卖家既可以看到历史统计数据又可以看到当前的统计数据。
智能推荐算法
大数据平台只是提供了数据获取、存储、计算、应用的技术方案,真正挖掘出这些数据之间的关系,让数据发挥价值的是各种机器学习算法。这些各种算法中,最常见的大概就是智能推荐算法了。
我们在淘宝购物,在头条阅读新闻,在抖音刷短视频,背后其实都有智能推荐算法。这些算法不断分析、计算我们的购物偏好、浏览习惯,然后为我们推荐可能喜欢的商品、文章、视频。事实上,这些产品的推荐算法是如此智能、高效,以至于我们常常一打开淘宝,就买个不停;一打开抖音,就停不下来。
我们看几种简单的推荐算法,了解一下推荐算法背后的原理。
基于人口统计的推荐是相对比较简单的一种推荐算法。根据用户的基本信息进行分类,然后将商品推荐给同类用户。
用户A和用户C的年龄相近性别相同那么可以将用户A和用户C划分为同类。用户A喜欢商品D那么推测用户C可能也喜欢这个商品系统就可以将这个商品推荐给用户C。
图中示例比较简单,在实践中,还应该根据用户收入、居住地区、学历、职业等各种因素进行用户分类,以使推荐的商品更加准确。
基于商品属性的推荐和基于人口统计的推荐相似,只是根据商品的属性进行分类,然后根据商品分类进行推荐。
电影A和电影D都是科幻、战争类型的电影如果用户A喜欢看电影A那么很有可能他也会喜欢电影D就可以给用户A推荐电影D。
这和我们的生活常识也是相符合的,如果一个人连续看了几篇关于篮球的新闻,那么很大可能再给他推荐一篇篮球的新闻,他还是会有兴趣看。
基于用户的协同过滤推荐,根据用户的喜好进行用户分类,然后根据用户分类进行推荐。
这个例子里用户A和用户C都喜欢商品A和商品B根据他们的喜好可以分为同类。然后用户A还喜欢商品D那么将商品D推荐给用户C他可能也会喜欢。
现实中,跟我们有相似喜好品味的人,也常常被我们当做同类,他们喜欢的其他东西,我们也愿意去尝试。
基于商品的协同过滤推荐,则是根据用户的喜好对商品进行分类,然后根据商品分类进行推荐。
这个例子中喜欢商品B的用户A和B都喜欢商品D那么商品B和商品D就可以分为同类。那么对于同样喜欢商品B的用户C很有可能也喜欢商品D就可以将商品D推荐给用户C。
这里描述的推荐算法比较简单,事实上,要想做好推荐其实是非常难的。用户不要你觉得他喜欢,而要他觉得喜欢,有很多智能推荐的效果不好,被用户吐槽“人工智障”。推荐算法的不断优化需要不断收集用户反馈,不断迭代算法和升级数据。
物联网大数据架构
物联网的目标是万物互联,将我们生产生活有关的一切事物都通过物联网连接起来。家里的冰箱、洗衣机、扫地机器人、空调都通过智能音响连接起来。汽车、停车场、交通信号灯都通过交通指挥中心连接起来。这些被连接的设备数据再经过分析计算反馈给工厂、电厂、市政规划等生产管理部门,控制生产投放。
物联网架构的关键是终端设备数据的采集、处理与设备的智能控制背后依然是大数据与AI算法。
终端设备负责采集现场数据,这些数据被汇总到智能网关,智能网关经过初步的转换、计算后将数据发送给物联网大数据平台,大数据平台通过消息队列接收发送上来的各种数据。
由于物联网终端设备在现场实时运行,需要实时控制,因此大数据平台也需要实时处理这些数据。大数据流计算引擎会从消息队列中获取数据进行实时处理。
对于一些简单的数据处理来说,流式计算利用配置好的规则进行计算就可以了,而复杂的处理还需要利用机器学习模型。机器学习模型是通过大数据平台离线计算得到的,而离线计算使用的数据则是流计算从消息队列中获取的。
流式计算的结果通常是终端设备的控制信息,这些信息通过设备管理组件被发送给智能网关,智能网关通过边缘计算,产生最终的设备控制信号,控制终端智能设备的动作。而物联网管理人员也可以通过应用程序直接远程控制设备。
随着5G时代的到来终端通信速度的提升和费用的下降物联网也许会迎来更加快速的发展。
小结
很多学习大数据技术的人是在学习大数据的应用。通常情况下作为大数据技术的使用者我们不需要开发Hadoop、Spark这类大数据低层技术产品只需要使用、优化它们就可以了。
在大数据应用中,我们需要开发的是大数据平台。大数据平台的各种子系统,比如数据同步、调度管理这些,虽然都有开源的技术可以选择,但是每家公司的大数据平台都是独一无二的,因此还是要进行各种二次开发,最终平台的整合和完成都需要我们来开发。
而真正使数据发挥价值,使大数据平台产生效果的,其实是算法,是算法发现了数据的关联关系,挖掘出了数据的价值。因此我们应用大数据也要关注大数据算法。
思考题
最后给你留一道思考题吧。大数据与AI算法在计算机系统中扮演着越来越重要的角色在你的工作中哪些地方可以使用大数据与AI算法提高效率优化体验
欢迎你在评论区写下你的思考,我会和你一起交流,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,125 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
33 区块链技术架构:区块链到底能做什么?
在我的职业生涯中,我经历过各种各样的技术创新,见识过各种技术狂热的风潮,也看过各种技术挫折,但从来没有一种技术能像区块链技术这样跌宕起伏,具有戏剧性,吸引了各色人等。
区块链为什么能吸引这么多的关注?它到底能做什么?它的技术原理是什么?又为何如此曲折?
让我们从区块链的起源——比特币说起。
比特币与区块链原理
2008年11月由中本聪设计、开发的比特币正式上线运行。我们现在都知道比特币是一种加密数字货币。价格最高的时候每个比特币可兑换近两万美金。一个看不见、摸不着的数字货币为什么能得到这么多的拥护被炒到这么高的价格
让我们继续追溯到传统的货币发行与交易系统。
传统的货币也就是我们日常使用的钞票是由各个国家的中央银行发行的。中央银行根据市场需求决定投放的货币数量但是很多时候为了刺激经济发展中央银行通常会额外多投放一些货币这样就会出现钱越来越不值钱的情况即通货膨胀。甚至有的时候某些政府为了弥补自己的债务恶意超发货币有的国家甚至发行过面额为50万亿的钞票导致了恶性通货膨胀。
于是就有人想,能不能发行一种数量有限、不会膨胀的数字货币,通过互联网在全球范围内使用呢?其实发行数字货币容易,但是得到大家的认可很难,而且货币在使用的时候,如何进行交易记账是个大问题。
传统上如果通过互联网进行交易转账,必须通过银行或者支付宝这样的第三方进行交易记账。但是通过互联网发行的数字货币必然得不到法定货币的地位,也就不会被银行等官方机构认可。如果没有受信任的官方机构记账,又如何完成交易呢?
所以比特币数字货币首先要解决的问题就是交易记账。比特币的主要思路是,构建一个无中心、去信任的分布式记账系统。这个记账系统和传统的银行记账不同,银行的账本由银行自己管理,银行是记账的中心,而比特币则允许任何人参与记账,没有中心,完全分布式的。
此外,传统的银行中心记账必须有个前提,就是交易者都相信银行,信任银行不会伪造、篡改交易。但是任何人都可以参与记账的比特币不可能得到大家的信任,所以这个记账系统必须从设计上实现去信任,也就是不需要信任记账者的身份,却可以信任这个人记的账。
这些不合常理,听起来就难度重重的要求,正是通过区块链技术实现的。
交易
首先在比特币的交易系统中所有交易的参与者都有一个钱包地址事实上这个钱包地址正是非对称加密算法中的公钥。非对称加密算法我在第30篇安全性架构一篇讲过。进行交易的时候交易的发起者需要将要交易的数字货币一个hash值和交易的接受方用自己的钱包私钥进行签名。
记账者可以使用发起者的公钥对签名进行验证,保证交易是真正发起者提交的,而不是其他人伪造的交易。
如下图:
区块链
交易签名只能保证交易不是他人伪造的,却不能阻止交易的发起者自己进行多重交易,即交易的发起者将一个比特币同时转账给两个人,也就是所谓的双花。
比特币的解决方案是记账者在收到若干交易后会将这些交易打包在一起形成一个区块block。区块必须严格按照顺序产生因此最新一个区块的记账者可以根据区块顺序得到此前所有的区块。这样记账者就可以检查所有区块中的交易数据是否有双花发生。
至于如何保证区块的严格顺序比特币的做法是在每个区块的头部记录他的前一个区块也就是前驱区块的hash值这样所有的区块就构成了一个链。我们知道单向链表是有严格顺序的。
通过hash值链起来的区块就是所谓的区块链如下图
工作量证明
区块链的严格顺序不但可以避免双花还可使历史交易难以被篡改。如果有记账者试图修改一笔过去区块中记录的交易必然需要改变这个交易所在区块的hash值这样就会导致下一个区块头部记录的前驱区块hash值和它不匹配区块链就断掉了。
为了不让区块链断裂篡改交易的记账者还必须要修改下一个区块的前驱hash值而每个区块的hash值是根据所有交易信息和区块头部的其他信息包括记录的前驱区块hash值计算出来的。下一个区块记录的前驱hash值改变必然导致下一个区块的hash需要重算。以此类推也就是需要重算从篡改交易起的所有区块hash值。
重算所有区块的hash值虽然麻烦但如果篡改交易能获得巨大的收益就一定会有人去干。我前面说过区块链是去信任的即不需要信任记账者却可以相信他记的账。因此区块链必须在设计上保证记账者几乎无法重算出所有区块的hash值。
比特币的解决方案就是工作量证明比特币要求计算出来的区块hash值必须具有一定的难度比如hash值的前几位必须是0。具体做法是在区块头部引入一个随机数nonce值记账者通过修改这个nonce值不断碰撞计算区块hash值直到算出的hash值满足难度要求。
因此计算hash值不但需要大量的计算资源GPU或者专用的芯片还需要大量的电力支撑这样大规模的计算在比特币最火爆的时候计算hash值需要消耗的电量大约相当于一个中等规模的国家消耗的电量。
在这样的资源消耗要求下重算所有区块的hash值几乎是不可能的因此比特币历史交易难以被篡改。这里用了“几乎”这个词是因为如果有人控制了比特币超过半数的计算资源确实可以进行交易篡改即所谓的51%攻击。但是这种攻击将会导致比特币崩溃,而能控制这么多计算资源的记账者一定是比特币主要的受益者,他没有必要攻击自己。
矿工
前面讲到,比特币的交易通过区块链进行记账,而记账需要花费巨大的计算资源和电力,那为什么还有人愿意投入这么多资源去为比特币记账呢?
事实上比特币系统为每个计算出区块hash的记账者赠送一定数量的比特币。这个赠送不是交易而是凭空从系统中产生的这其实就是比特币的发行机制。记账者为了得到这些比特币愿意投入资源计算区块hash值。
由于计算出hash就可以得到比特币计算hash值的过程也被形象地称作“挖矿”相对应的进行hash计算的记账者被称作矿工而用来计算hash值的机器被称作矿机。
当“矿工们”为了争夺比特币,争相加入“挖矿”大军时,比特币区块链就变成一个分布式账本了。这里的分布式有两层含义:“矿工”记账时需要进行交易检查,所以需要记录从第一个区块开始的、完整的区块链,也就是说,完整的账本分布在所有的矿工的机器上;此外,每个区块是由不同矿工挖出来的,也就是说,每次交易的记账权也是分布的。
比特币虽然取得巨大的成功,但一直没有得到主流国家的官方支持。但是比特币使用的区块链技术却得到越来越多的认可,在企业甚至政府部门间的合作领域里,得到了越来越多的应用。
联盟链与区块链的企业级应用
比特币应用的区块链场景也叫做公链,因为这个区块链对所有人都是公开的。除此之外,还有一种区块链应用场景,被称作联盟链。
联盟链是由多个组织共同发起,只有组织成员才能访问的区块链,因此有时候也被称作许可型区块链。传统上,交易必须依赖一个中心进行,不同的组织之间进行交易,必须依赖银行这个中心进行转账。那么银行之间如何进行转账呢?没错,也需要依赖一个中心,国内的银行间进行转账,必须通过中国人民银行清算中心。
跨国的银行间进行转账则必须依赖一个国际的清算中心,这个中心既是跨国转账的瓶颈,又拿走了转账手续费的大头。所以当区块链技术出现以后,因为区块链的一个特点是去中心,各家银行就在想:银行之间能不能用区块链记账,而不需要这个清算中心呢?最初的联盟链技术就是由银行推动发展的。
目前比较知名的联盟链技术是IBM主导的Hyperledger Fabric。主要架构如下
Peer节点负责对交易进行背书签名Ordering节点负责打包区块Peer节点会从Ordering节点同步数据记录完整的区块链。而所有这些服务器节点的角色、权限都需要CA节点进行认证只有经过授权的服务器才能加入区块链。
最近两年随着区块链技术的火爆联盟链技术也开始从银行扩展到互联网金融领域甚至非金融领域。2018年支付宝香港和菲律宾一家互联网金融企业通过区块链进行了跨国转账而香港和菲律宾的外汇管理局也作为联盟成员加入了区块链使得转账和监管在同一个系统中完成。
在互联网OTA在线旅行代理领域酒店房间在线销售是一块非常大的业务但是一家酒店不可能对接所有的OTA网站而一家OTA网站也不可能获得所有的酒店资源于是就催生了第三方的酒店分销平台这个平台负责对接所有的酒店酒店房间通过该平台对外分销而OTA网站通过该平台查找酒店房间以及预定房间。
于是这个平台就成为一个全行业不得不依赖的中心一方面产生了巨大的瓶颈风险另一方面酒店和OTA也不得不给这个中心支付高昂的手续费。
事实上我们可以利用联盟链技术将酒店和OTA企业通过区块链技术关联起来酒店通过区块链发布房间信息而OTA通过区块链查找房间信息以及预订房间。如下图所示左边是传统的酒店分销模式右边是基于区块链的酒店分销模式。
上面讲到的Hyperledger 联盟链技术部署和应用都比较复杂。目前在区块链领域,社区资源比较丰富,更为易用,也更被广泛接受的区块链技术是以太坊。但是以太坊是一个公链技术,不符合联盟链受许可才能加入的要求,因此,我和一些小伙伴对以太坊进行了重构,使其符合联盟链的技术要求,你可以点击源码地址看一下,也可以看看相关文档。
如果你感兴趣的话,欢迎你参与开发与应用落地。
小结
应该说,区块链能吸引到这么多的关注,产生这么大影响,和加密数字货币的炒作是分不开的。正因为数字货币的炒作,才使得区块链技术吸引了大量的资源,更多的人才投入研发区块链相关技术,区块链技术进步与应用也吸引了大量的关注。
但是数字货币的投机属性又使得人们对区块链技术抱有急功近利的想法,希望区块链技术能快速带来回报。
在我看来,互联网技术的快速发展是生产力革命,使得生产力数以十倍、百倍的增加。而区块链技术是生产关系革命,传统上,所有的交易和合作都必须依赖法律以及信任。而法律的成本非常高,很多场合无法支撑起用法律背书的成本;而跨组织,特别是互为竞争对手的组织之间又不可能产生信任。区块链的出现,使得低成本,去信任的跨组织合作成为可能,将重构组织间的关系,这个关系既包括企业间的关系,也包括政府和企业间的关系,还有政府部门间的关系。
互联网使得这个世界变得更加扁平,信息流动更加快速,但无法弥合这个世界割裂的各种关系,而区块链可以打通各种关系,将这个世界更加紧密联系在一起,使全人类成为真正的命运共同体。
思考题
今天我讲了一下区块链技术,它虽然火爆,但仍然处在发展之中。你能想到的利用区块链技术的场景有哪些呢?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,95 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
33 答疑 互联网需要解决的技术问题是什么?
目前互联网软件应用可以说是最主流的软件应用了,相应的,互联网分布式架构也成为最主要的系统架构方案。这个模块主要讲的就是互联网架构的一些知识内容,互联网架构技术关键点有很多,我在专栏中也试图在有限的篇幅内尽量多地覆盖这些技术关键点,但是依然有很多关键技术点未能展开讲述,文章中很多思考题其实也都是分布式系统的关键技术点,我在这里再进行一些回顾和补充。
专栏22篇分布式缓存架构的思考题
我们讲 Memcached 路由算法讲到余数 Hash 算法,但是,这种算法在 Memcached 服务器集群扩容,也就是增加服务器的时候,会遇到较大的问题,问题是什么呢?应该如何解决?
分布式缓存将多台服务器构建成一个集群,共同对外提供缓存服务,那么应用程序在读写缓存数据的时候,如何知道自己应该访问哪一台服务器呢?答案就是缓存路由算法,通过缓存路由算法计算得到缓存服务器的编号,进而和该服务器通信,读写缓存数据。
比较简单的路由算法就是余数Hash算法利用 key 的 Hash 值对服务器列表长度取模,根据余数就可以确定服务器列表的下标。
比如说缓存服务器集群中有3台服务器根据Key的Hash值对3取模得到的余数一定在0、1、2三个数字之间每一个数字都对应着一台服务器根据这个数字查找对应的服务器IP地址就可以了。
使用余数取模这种方式进行路由计算非常简单但这种算法有一个问题就是当服务器进行扩容的时候会出现缓存无法命中的情况。比如说我们当前的服务器集群有3台服务器当增加1台服务器的时候对3取膜就会变成对4去取模导致的后果就是以前对3取模的时候写入的缓存数据对4取模的时候可能就查找不到了。
我们添加服务器的主要目的是提高缓存集群的处理能力,但是不正确的路由算法可能会导致整个集群都失效,大部分缓存数据都查找不到。
解决这个问题的主要手段是使用一致性Hash算法。一致性Hash首先是构建一个一致性Hash环的结构。一致性Hash环的大小是0到2^32-1实际上就是我们计算机中无符号整型的取值范围这个取值范围0和最后一个值2^32-1首尾相连构成了一个一致性Hash环。
然后我们将每个服务器的节点的Hash值放到环上每一次进行服务器查找路由计算的时候都是根据Key的Hash值顺时针查找距离它最近的服务器的节点。通过这种方式Key不变的情况下找到的总是相同的服务器。这种一致性Hash算法除了可以实现像余数Hash一样的路由效果以外对服务器的集群扩容效果同样也非常好。
扩容的时候只需要将新节点的Hash值放到环上。比如图中的的NODE3放入环上以后只影响到NODE1节点原来需要到NODE1上查找的一部分数据改为到NODE3上查找其余大部分数据还能正常访问。
但是一致性Hash算法有一个致命的缺陷。Hash值是一个随机值把一个随机值放到一个环上以后可能是不均衡的也就是说某两个服务器节点在环上的可能距离很近而和其它的服务器距离很远这个时候就会导致有些服务器的负载压力特别大有些服务器的负载压力非常小。而且在进行扩容的时候比如说加入一个NODE3影响的只是NODE1而实际上加入一个服务器节点的时候是希望它能够分摊其他所有服务器的一部分负载压力。
实践中我们需要使用虚拟节点对算法进行改进。也就是说当把一个服务器节点放入到一致性Hash环上的时候并不是把真实的服务器的Hash值放到环上而是将一个服务器节点虚拟成若干个虚拟节点把这些虚拟节点的Hash值放到环上去。在实践中通常是把一个服务器节点虚拟成200个虚拟节点然后把200个虚拟节点放到环上。Key依然是顺时针的查找距离它最近的虚拟节点找到虚拟节点以后根据映射关系找到真正的物理节点。
通过使用虚拟节点的方式物理节点之间的负载压力相对比较均衡。加入新节点的时候实际上是加入了200个虚拟节点这些虚拟节点随机落在环上会对当前环上的每个节点都有影响原来的每个节点都会有一小部分数据访问落到新节点上。这样既保证大部分缓存能够命中保持缓存服务的有效性又分摊了所有缓存服务器的负载压力达到了集群处理能力动态伸缩的目的。
第25篇数据存储架构思考题
分布式架构的一个最大特点是可以动态伸缩,可以随着需求变化,动态增加或者减少服务器。对于支持分片的分布式关系数据库而言,比如我们使用 MYCAT 进行数据分片,那么随着数据量逐渐增大,如何增加服务器以存储更多的数据呢?如果增加一台服务器,如何调整数据库分片,使部分数据迁移到新的服务器上?如何保证整个迁移过程快速、安全?
上面我们讨论了缓存集群增加服务器的解决方案,对于分布式关系数据库而言,也需要增加服务器以增强集群负载处理能力。
和缓存的情况不同缓存如果有部分数据不能通过缓存获得还可以到数据库查找。上述的一致性Hash算法也确实会导致小部分缓存服务器中的数据无法被找到但是大部分缓存数据能够找到这样是不影响缓存服务正常使用的。
但如果分布式关系数据库中有数据无法找到,可能会导致系统严重故障。因此分布式关系数据库集群扩容,增加服务器的时候,要求扩容以后,所有数据必须正常访问,不能有数据丢失。所以数据库扩容通常要进行数据迁移,即将原来服务器的部分数据迁移到新服务器上。
那么哪些数据需要迁移呢?迁移过程中如何保证数据一致呢?
实践中,分布式关系数据库采用逻辑数据库进行分片,而不是用物理服务器进行分片。
比如MySQL可以在一个数据库实例上创建多个Schema每个Schema对应自己的文件目录。数据分片的时候就可以以Schema为单位进行分片每个数据库实例启动多个Schema。进行服务器扩容的时候只需要将部分Schema迁移到新服务器上就可以了。路由算法完全不需要修改因为分片不变但是集群的服务器却增加了。
而且因为MySQL有主从复制的能力事实上在迁移的时候只需要将这些Schema的从库配置到新服务器上数据就开始复制了等数据同步完成再将新服务器的Schema设置为主服务器就完成的集群的扩容。
第21篇分布式架构的思考题
互联网应用系统和传统 IT 系统面对的挑战,除了高并发,还有哪些不同?
这个问题其实是分布式架构知识点的总结,互联网需要解决的技术问题是什么,解决方案是什么,带来的价值是什么,都在其中了。
互联网应用因为要处理大规模、高并发的用户访问,所以需要消耗巨大的计算资源,因此采用分布式技术,用很多台服务器构成一个分布式系统,共同提供计算服务,完成高并发的用户请求处理。
除了高并发的挑战互联网应用还有着高可用的要求。传统的企业IT系统是给企业内部员工开发的。即使是服务外部用户的但是只要企业员工下班了系统就可以停机了。银行的柜员会下班超市的收银员会下班员工下班了系统就可以停机维护升级软件更换硬件。
但是互联网应用要求7*24小时可用永不停机即使在软件系统升级的时候系统也要对外提供服务。而且一般用户对互联网高可用的期望又特别高如果支付宝几个小时不能使用即使是深夜也可能会引起很大的恐慌。
而一个由数十万台服务器组成,为数亿用户提供服务的互联网系统,造成停机的可能性又非常大,所以需要在架构设计的时候,专门,甚至重点考虑系统的高可用。关于高可用的架构,我主要在[第29篇]高可用架构一篇进行了讨论。
互联网应用除了高并发的用户访问量大需要存储的数据量也非常大。淘宝有近十亿用户、近百亿商品如何存储这些海量的数据也是传统IT企业不会面对的技术挑战。关于海量数据的存储技术我主要在[25篇数据存储架构]进行了讨论。
有了海量的数据,如何在这些数据中快速进行查找,我在[26篇搜索引擎架构]进行了讲解。如何更好地利用这些数据,挖掘出数据中的价值,使系统具有智能化的特性,我在[31篇大数据架构]中进行了讨论。
传统企业IT系统部署在企业的局域网中接入的电脑都是企业内部电脑因此网络和安全环境比较简单。而互联网应用需要对全世界提供服务任何人在任何地方都可以访问当有人以恶意的方式访问系统的时候就会带来安全性的问题。
安全性包含两个方面,一个是恶意用户以我们不期望的方式访问系统,比如恶意攻击系统,或者黄牛党、羊毛党通过不当方式获利。另一个是数据泄密,用户密码、银行卡号这些信息如果被泄漏,会对用户和企业都造成巨大的损失。[30篇安全性架构]讨论的就是这方面的内容。
传统的IT系统一旦部署上线后面只会做一些小的bug修复或者特定的改动不会持续对系统再进行大规模的开发了。而互联网系统部署上线仅仅意味着开始进行一个新业务的打样随着业务的不断探索以及竞争对手的持续压力系统需要持续不断地进行迭代更新。
如何使新功能的开发更加快速,使功能间的耦合更加少,需要在软件设计的时候进行考虑,这其实是专栏第二个模块软件的设计原理主要讨论的内容。而在架构模块,主要是在[第23篇异步架构]以及[27篇微服务架构]进行了探讨。
互联网现在已经进入泛互联网时代,也就是说,不是只有互联网企业才能通过互联网为用户提供服务,各种传统的行业,所有为普通用户提供服务的企业都已经转向互联网了。可以说互联网重构了这个时代的商业模式,而以分布式技术为代表的互联网技术也必然重构软件开发与架构设计的技术模式。

View File

@ -0,0 +1,89 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
34 技术修炼之道:同样工作十几年,为什么有的人成为大厂架构师,有的人失业?
在软件开发招聘中,“有多少年工作经验”是一个重要的招聘指标。但实际上,技术能力和工作年限并不是正相关的,特别是工作三五年以后,很多人的技术能力进步就几乎停滞了。但是招聘面试的时候,面试官是期待他有着和工作年限相匹配的技术能力的。
如果一个人空有十几年工作经验,却没有相应的技术能力,那么这十几年的工作经验甚至可能会成为他的劣势,至少反映了他已经没有成长空间了。反而是工作年限不如他,但是技术能力和他相当的其他候选人更有优势,因为这个人可能还有进步的空间。
事实上,就我这些年的面试经验而言,空有十几年工作经验而没有相应技术能力的人大有人在。其实从简历上就能看的出来:最近几年的时间他承担的工作职责几乎没有变化,使用的技术、开发的项目几乎和头几年一样,那么很难相信这些年他的技术会有什么进步。
那么如何保持技术能力持续进步,使工作年限成为自己的优势而不是缺点呢?
德雷福斯模型
我们先看一个德雷福斯模型。德雷福斯是一个专业人员能力成长模型这个模型认为所有专业人员都需要经历5个成长阶段不管是医生还是律师或者是软件开发任何专业技能的从业者都需要经历新手、高级新手、胜任者、精通者、专家5个阶段。
通常一个人进入专业的技能领域,即使在学校已经系统学习过这个专业的相关知识,但依然无法独立完成工作,必须在有经验的同事指导下,学习相关的技能。这里主要学习的是有关工作的规则和套路。比如用什么工具、什么框架,如何开发程序,如何开会、写周报,如何和同事合作,业务领域的名词术语是什么意思等等这些各种各样和工作有关的大小事情。这个阶段叫做新手阶段。
通常说来,一个人大约工作两三年后,就差不多掌握了工作的各种套路,可以摆脱新手阶段,独立完成一些基本的工作了。通过新手阶段的人,少部分会直接进入胜任者阶段,而大多数则进入高级新手阶段。
高级新手其实是新手的自然延续,他不需要别人指导工作,也不需要学习工作的规则和套路,因为高级新手已经在新手阶段掌握了这些套路,他可以熟练应用这些规则套路完成他的工作。但是高级新手的能力也仅限于此,他不明白这些规则是如何制定出来的,为什么使用这个框架开发而不是另一个框架,也不明白这个框架是如何开发出来的。
因此,一旦需要解决的问题和过往的问题有很大不同,以前的规则套路无法解决这些新问题的时候,高级新手就抓瞎了,不知道该怎么办。
一个悲观的事实是,新手会自然进入高级新手阶段,而高级新手却无法自然进入其后的其他等级阶段。实际上,在各个专业领域中,超过半数的人终其一生都停留在高级新手阶段,也就是说,大多数人一生的工作就是基于其专业领域的规则在进行重复性的劳动。他们不了解这些规则背后的原理,也无法在面对新的问题时,开创出新的方法和规则。那些简历上十多年如一日使用相同的技术方案、开发类似软件项目的资深工程师大部分都是高级新手。
导致一个人终身停留在高级新手阶段的原因有很多,其中一个重要的原因是:高级新手不知道自己是高级新手。高级新手觉得自己在这个专业领域混得很不错,做事熟练,经验丰富。
事实上,这种熟练只是对既有规则的熟练,如果岁月静好,一切都循规蹈矩,也没什么问题。而一旦行业出现技术变革或者工作出现新情况,高级新手就会遇到巨大的工作困难。事实上,各行各业都存在大量的高级新手,只是软件开发领域的技术变革更加频繁,问题变化也更加快速,使高级新手问题更加突出。
少部分新手和高级新手会在工作中学习、领悟规则背后的原理,当需要解决的问题变化,或者行业出现技术革新时,能够尝试学习新技术,解决新问题,这样的人就进入胜任者阶段。胜任者工作的一个显著特点是,做事具有主动性。他们在遇到新问题时,会积极寻求新的解决方案去解决问题,而不是像高级新手那样,要么束手无策,要么还是用老办法解决新问题,使问题更加恶化。
胜任者能够解决新问题,但他们通常只会见招拆招,局限于解决问题本身,而缺乏反思精神以及全局思维:为什么会出现这样的问题?如何避免类似问题再发生?这个问题在更宏大的背景下处于什么位置?还有哪些类似的问题?
而拥有反思精神和全局思维,即使没有新问题也能够进行自我突破、寻求新的出路的人,就进入了精通者阶段。精通者需要通过主动学习进行提升,主动进行大量的阅读和培训,而不是仅仅依靠工作中的经验和实践。他们在完成一个工作后会反思:哪些地方可以改进,下次怎么做会更好?
精通者拥有了自我改进的能力。
高级新手会把规则当做普适性的真理而使用,甚至引以为豪;而精通者则会明白所有的规则都只在特定的场景中才会有效,工作中最重要的不是规则,而是对场景的理解。
而最终各行各业大约只有1%的人会进入专家阶段,专家把过往的经验都融汇贯通,然后形成一种直觉,他们直觉地知道事情应该怎么做,然后用最直接、最简单的方法把问题解决。专家通常也是他所在领域的权威,精通者和胜任者会学习、研究专家是如何解决问题的,然后把这种解决方案形成套路,成为行业做事的规则。
如何在工作中成长
德雷福斯模型告诉我们,人的专业能力不会随着工作年限的增加而自然增长,多数人会终身停留在高级新手阶段。那么如何在工作不断成长,提升自我,最终成为专家呢?以下三个建议供你参考。
1.勇于承担责任
好的技术都是经过现实锤炼的,能够真正解决现实问题的,得到大多数人拥护的。所以自己去学习各种各样的新技术固然重要,但是更重要的是要将这些技术应用到实践中,去领悟技术背后的原理和思想。
而所有真正的领悟都是痛的领悟,只有你对自己工作的结果承担责任和后果,在出现问题或者可能出现问题的时候,倒逼自己思考技术的关键点,技术的缺陷与优势,才能真正地理解这项技术。
如果你只是去遵循别人的指令,按别人的规则去做事情,你永远不会知道事物的真相是什么。只有你对结果负责的时候,在压力之下,你才会看透事物的本质,才会抓住技术的核心和关键,才能够让你去学好技术,用好技术,在团队中承担核心的技术职责和产生自己的技术影响,并巩固自己的技术地位。
2.在实践中保持技能
有个说法叫做1万小时定律是说要想成为某个领域的专家必须经过1万小时高强度的训练才可以对软件开发这样更强调技术的领域来说这一点尤其明显。我们必须要经过长时间的编程实践从持续的编程实践中提升技术认知才能够理解技术的精髓感悟到技术的真谛。
但是1万小时的编程时间并不是说你重复的编程1万小时就能够自动提升成为专家的。真正对你有帮助的是不断超越自我挑战自我的工作。也就是说每一次在完成一个工作以后下一次的工作都要比上一次的工作难度再增加一点点不断地让自己去挑战更高难度的工作从而拥有更高的技术能力和技术认知。
通俗说来,就是要摘那些跳起来才能够得着的苹果,不要摘那些伸手就能够得着的苹果。但是如果难度太高,注定要失败的任务,其实对技术提升也没有什么帮助。所以最好是选择那些跳起来能够摘得到的苹果,你要努力再进步一点点,才能够完成。通过这样持续的工作训练和挑战,在实践中持续地获得进步,你就可以不断从新手向专家这个方向前进。
3.关注问题场景
现实中,很多人觉得,学好某一个技术就大功告成了。但事实上是,即使你熟练掌握了强大的技术,但如果对问题不了解,对上下文缺乏感知,也不会真正地用好技术,也就无法去解决真正的问题。试图用自己擅长的技术去解决所有问题,就好像是拿着锤子去找钉子,敲敲打打大半天,才发现打的根本就不是一个钉子。
所谓的专家其实是善于根据问题场景发现解决方法的那个人,如果你关注场景,根据场景去寻找解决办法,也许你会发现解决问题的办法可能会非常简单,也许并不需要多么高深的工具和方法就能够解决,这时候你才能成为真正的专家。也就是在这个时候你会意识到方法、技术、工具这些都不是最复杂的,而真正复杂的是问题的场景,是如何真正地理解问题。
这个世界没有万能的方法,没有一劳永逸的银弹。每一种方法都有适用的场景,每一种技术都有优点和缺点,你必须要理解问题的关键细节、上下文场景,才能够选择出最合适的技术方案,真正地解决问题。
小结
如果你是一个新手,刚刚工作不久,那么不要被所谓的工作经验和所谓的资深工程师的说教局限住,你要去思考规则背后的原理,主动发现新问题然后去解决问题,越过高级新手阶段,直接向着胜任者、精通者和专家前进吧。
如果你是一个有多年经验的资深工程师,那么忘了你的工作年限吧,去问自己,我拥有和工作年限相匹配的工作技能吗?我在德雷福斯模型的哪个阶段?我该如何超越当前阶段,成为一个专家?
思考题
在成为专家的道路上,关于提升自我、突破自我,你有哪些经验方法和心得体会?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,90 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
35 技术进阶之道:你和这个星球最顶级的程序员差几个等级?
这些年我跟一些年轻的软件工程师朋友们交流关于未来的职业发展大家普遍都有憧憬和规划要做架构师要做技术总监要做CTO。对于如何实现自己的职业规划也都信心满满努力工作好好学习不断提升自己。但现实总是复杂的日复一日的工作生活总能让人一次又一次地陷入迷茫。其原因之一就是对职业发展轨迹和自我能力进步的一般规律缺乏认识导致做事找不到方向或是操之过急。
软件技术的生态江湖与等级体系
软件编程这个领域看似平等、开放、自由,但这并不代表混乱、无序。这个领域并没有什么成文的行为准则,却自有一套运作体系,依靠这套体系,软件开发的技术和知识以极快的速度在全世界范围内传播、推广。如果你致力于成为软件架构师,那么你必须了解一下软件技术的生态江湖与等级体系,因为你的技术处境和你的技术发展之路就在其中。
全世界从事软件开发的技术人员大约有几千万,有序稳定的组织方式总是金字塔结构,在软件开发这个领域也不例外,我们按照每个人的影响力和技能水平,使用二八定律进行划分,得到一个如下的金字塔结构。
80%的工程师处在这个金字塔最底层全世界绝大多数的代码出自这一层的工程师之手但是他们却没有任何技术决策能力和技术影响力。用什么编程语言用什么数据库用什么编程框架日志规范与代码规范如何制定统统不由他们决定。大多数情况下一个10人团队有8个是这样的人他们在金字塔的第零层在这个体系中他们没有自己的称呼。
这一层之上剩下的20%技术人员中的80%也就是总数为16%的工程师他们被称为团队影响者。他们是项目架构师、技术经理、技术骨干他们撑起了项目的技术核心在项目范围内决定着各种技术方向核心的代码由他们开发出了重要的问题也要找他们去解决。这样的人在一个10人团队中大约有一两人。
团队影响者之上是公司影响者大约占总数的3.2%他们决定整个公司的技术方向用Java还是用PHP用MySQL还是SQLServer微服务用Dubbo还是Spring Cloud在一个有300名技术人员的公司这样的人大约有10个。他们通常是公司的技术元老在公司的技术团队中拥有较大知名度的技术牛人。
团队影响者和公司影响者又如何做出技术判断和决策呢他们的技术从何而来通常他们会关注国内最新的技术风向参加各种技术峰会阅读各种技术图书通过这些信息获取知识并做出自己的技术判断和决策。而向他们传播这些最新技术动向的人是全国影响者。这些人通常来自知名的IT互联网公司当他们说我们在淘宝、腾讯如何做开发的时候全中国的开发者都静心倾听。
而这些全国影响者通常是通过关注国外的技术动向来获取信息主要是一些美国的公司比如Google、Facebook、微软这些公司的工程师。当他们讲我们在Google是如何做开发的时候全世界的开发者静心倾听想要了解下一次的技术潮流在哪里。他们是全球影响者。
在这个技术影响力体系里面越往高背景越重要。你是谁不重要你代表谁更重要人们关注的不是你叫什么名字而是你来自哪个公司这也是很多人想要加入Google阿里巴巴的原因。有趣的是来自知名大厂的一些工程师常常忘记了这一点觉得自己得到关注和掌声是来自自己的成就和能力结果导致对自己的职业发展产生重大误判。
技术等级体系直到这里,关注的都是技术影响力,通过影响力决定使用何种技术进行软件开发。那我们常用的这些软件技术又从何而来?事实上,正是这些知名软件的开发者,推动了一次又一次软件编程的革命,领导了一次又一次技术进步,带领软件技术行业不断前进。
他们有的开发了一些关键性的技术产品比如一些广为使用的JSON解析器、单元测试框架、分布式缓存系统他们是一些关键开创者。
还有一些则开创了一个领域比如Spring构建了一个完整的Java web开发技术栈这些软件的核心开发者是领域创建者。
而在这个金字塔的最顶层则是那些开创了一个行业的行业开创者Hadoop成就了大数据行业Linux引领了操作系统行业Linus、Doug Cutting这些人就是软件技术领域的王者。
基本上你能超越你当前所在层次的80%的人,你就可以进入更上一个层级。
技术进阶之捷径
那么如何完成技术层级的跃迁成为更高一级的技术高手呢你当然可以一级一级地从金字塔的最底层努力做起在每一层都超越80%的人进入更上一层的技术等级。
那么,有没有捷径呢?
其实还真有,而且被许多人尝试过了。那就是直接去做一个全国影响者,在工作之外,通过持续地维护一个技术博客,或者技术公众号,不断地发表一些高质量的原创技术文章,在某个技术领域打造自己的技术影响力。并通过在一些有影响力的技术峰会上做主题演讲,以及出版一些高质量并畅销的技术图书,持续扩大自己的影响力。
应该说每一次大的技术浪潮都会使一批默默无闻的技术人员快速获得全国性的技术影响力在分布式技术、移动互联网、大数据、AI、区块链等领域莫不如此。
因此,通过这种方式获得全国性的技术影响力,一方面要持续努力,不断学习、实践,持续获得知识,并把这些知识有效地传播出去。另一方面,还要有眼光,你在一个已经非常成熟的技术上耕耘,再努力也很难获得足够的关注;而在那些尚不成熟的技术上努力,你又如何知道将来这个技术会成功?这就需要有足够的技术敏感性,进行足够多的技术尝试,做出有战略眼光的技术决策。
所以,所谓的捷径只是路径上的捷径,要想在这条捷径上获得成功,需要付出更多的努力和聪明才智。
事实上,如果你足够努力并有足够的天分,你甚至可以超越影响者阶层,直接进入开创者阶层,比捷径更加捷径。
在计算机软件开发领域,美国是全球的领导者,软件领域的新技术基本都是美国人引领的,我们日常使用的各种软件基本上都是在美国开发的。大到各种编程语言,小到各种编程框架和工具,几乎都是在美国开发出来的。
如果说,最近几年这个现象有什么细微的变化,那就是中国开发者的身影越来越多,中国本土开发的软件,也越来越多被全球开发者接受,特别是在开源软件以及最新的技术领域上,中国人越来越多。
这主要得益于最近十几年中国开发者人数的急剧增加,以及中国开发者技术水平的快速提高。在上个世纪,中国人开发一款技术产品,被全球软件开发者使用,似乎是天方夜谭,而到了今天,这完全不是什么不可能的事情。
所以,如果你能直接开发一款在全球范围内被软件开发人员广泛接受的技术产品,并能吸引全球的开发者参与到你的产品开发中,那么你就成为某方面的开创者了。事实上,因为中国开发者人数的庞大,即使你只要在中国范围内获得广泛的接受,其实离距离全球范围内流行也已经不远了。
比捷径更捷径的路不是没有,只是更加艰难,不只需要你个人的努力,还要看历史的进程。
小结
所以,从根本上说,技术进阶根本没有捷径,所谓的捷径,其实是你经历了各种努力和挫折后,最后化蛹成蝶的惊鸿一瞥。
为了最后众人瞩目的成功,你依然需要经历金字塔每一层的考验。
在工作中,技术实力固然重要,但是技术实力要转化成公司需要的成果和价值,技术影响力非常重要,通过技术影响力引导团队、部门、公司按照你的技术价值观去构建产品架构和技术发展路径,凝聚公司的技术力量,让你自己和公司向着更高的技术等级前进。
关于如何构建自己的技术影响力,有两点建议:
承担责任:重大的技术决策可能会带来重大的技术风险,要有勇气承担风险,并因此赢得他人的尊重。
帮助他人:团队成员遇到技术问题的时候,即使不是自己的工作范围,也可以帮助他们去解决问题,一方面建立自己的技术影响力,另一方面,通过解决问题获得更快的技术成长和领悟。
当然,技术影响力的前提是真正的技术实力,没有实力的影响力就是空中楼阁,不堪一击。
思考题
最后,你不妨想一想,如何构建自己的技术影响力呢?你有什么想法或者心得吗?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,79 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
36 技术落地之道:你真的知道自己要解决的问题是什么吗?
做软件开发,其实就是用软件的手段完成业务需求,而业务需求一定是用来解决某些问题的,用户的问题、老板的问题、运营的问题等等。软件工程师常常疲于奔命,开发各种需求,但是这些需求到底想要解决什么问题,开发完成以后是否真的解决了问题,实现了功能的自身价值。对于这些问题,很多开发者常常既不了解,也不关心。
我们讲一个小故事吧。北欧有一个度假胜地,是欧洲人民夏天避暑度假的好去处,去度假胜地需要经过一个长长的隧道,隧道的工程师为了保证隧道的安全使用,在隧道入口处立了一块牌子,写着:请打开车灯。
游客们开着汽车,打开车灯,穿过隧道,到达度假胜地,愉快地去玩耍了。而等他们要回去的时候,有些人却发现车子无法启动——他们忘记关闭车灯,汽车电池耗尽了。小镇的警察们只好开着自己的警车四处为游客们充电,疲惫不堪。而沮丧的游客们则在回去以后四处抱怨,分享他们糟糕的旅游经验,导致小镇旅游业大受影响,镇长压力山大。
于是人们找到隧道的工程师,要求他在隧道的尽头再立一块牌子,写上:请关闭车灯。工程师照做了以后,却发现麻烦来了:夜晚穿过隧道的游客看到牌子,虽然非常疑惑,但还是按照指示关闭了车灯,结果却发生了车祸,麻烦更大了。于是工程师不得不写上:如果是白天,请关闭车灯。结果有的游客没看到隧道入口的牌子,却看到了隧道出口的牌子,同样疑惑。为了解决新问题,工程师不得不在牌子上继续写下去⋯⋯
这个场景和软件工程师们日常的工作场景是不是很相似总有客户、老板、产品经理过来跟你说这里需要这样一个按钮那里需要这样一个功能。你照做了以后发现带来了更多的麻烦为此你不得不在代码里不断地写if/else。你不是在解决问题而是在制造问题。
回到这个故事,我们重新思考一下:这是谁的问题?谁能够解决这个问题?如果这是镇长的问题,那么能不能让镇长在停车场修建充电桩让游客们充电?如果这是警察的问题,那么能不能多招一个警察,专门帮游客充电。如果这是游客的问题,能不能在隧道出口立一块牌子,写上:你的灯亮着吗?提醒他们问题的存在,让他们自己去解决问题。
所以,你在每次解决问题的时候,是否想清楚了问题的本质究竟是什么?这是谁的问题?谁能解决这个问题?你在为谁解决问题?这些问题决定了你是否能真正解决问题,为公司创造价值,也决定了你是否能选择最合适的技术去解决问题,进而提升自己的技术能力以及自己的技术影响力。
作为一个软件工程师,如果只是听从别人的指令开发代码,却不了解这些代码究竟想要解决什么问题,那么很多时候你是在制造问题,而不是解决问题,你加班加点辛苦工作只是在为公司制造麻烦。而对于你自己而言,日复一日重复执行解决方案,距离你成为一个技术专家也越来越远。
关于如何发现真正的问题,这里有几个小的建议,供你参考。
不要把解决方案当作问题的定义,而忽略了真正要解决的问题是什么
我工作这么多年来,经历过很多公司,参加过很多次技术会议,就我所见,几乎所有的技术会议都没有有意识地讨论过一个主题:这个会要解决的问题是什么?
很多时候,会议一开始就讨论解决方案。有的会议上,产品经理上来就说我们需要一个什么样的功能,请技术部门给一个技术方案和工作量评估,至于这个功能用来解决什么问题,给用户或者公司带来什么价值,几乎很少说明。有的会议上,架构师上来就说我们打算推广一个什么样的技术,请相关技术团队配合,至于这个技术用来解决什么问题,给用户或者公司带来什么价值,也几乎很少说明。
所以,这样的会议,讨论的重点就是解决方案本身:这个功能怎么做,这个技术怎么应用落地。而不是讨论真正的问题是什么:为了解决真正的问题,这个功能是不是必须要做,有没有更好的解决办法;这个技术是不是必须要上,能不能带来足够的价值。
这样的会议,即使有争论,争论的也是解决方案本身,而不是问题。关于解决方案的争论又往往陷入各种细节之中,经过一番讨论,更加不知道要解决的问题是什么了。
所以,以后参加技术会议的时候,也许不需要急于参与到讨论之中,而是要多思考:这次会议把要解决的问题说清楚了吗?需求背后真正要解决的问题是什么?当前讨论的内容真的能解决问题吗?
想清楚了这些,你会对当前的局面有更加清晰的认识,你会发现其他与会者的激烈争论,都是在盲人摸象,自说自话,彼此的关注点根本不在同一个问题上。
这个时候,你出手把大家拉回到问题本身,主导会议的讨论方向,你就会成为最有技术影响力的那个人。
你不需要去解决别人的问题,你只需要提醒他问题的存在
在有关育儿教育的经典书籍中,对于如何面对婴幼儿的哭闹,比如小孩子摔倒了,开始哭闹的时候,给出的解决方案是,不要立即鼓励小孩子,要让他们勇敢一点,自己爬起来。更不要斥责他没出息,走路不小心什么的,而是把他抱在怀里,轻轻在他耳边说,(爸爸)妈妈知道你摔疼了。重复这句话,直到小孩子不哭了,然后再跟他说,你是个勇敢的孩子,你可以自己面对的,下次你可以自己爬起来。
在这个例子中,小孩子摔倒了哭,是谁的问题?当然是小孩子自己的问题,但是他太小,又处在巨大的挫折之中,无法独自解决问题。所以,父母这时候要做的是,安抚好孩子的情绪,告诉孩子,爸爸妈妈和你在一起,理解你的痛苦。等他从挫折中恢复过来,不哭了,然后鼓励他,让他自己解决问题。
我们开篇那个隧道车灯的故事也是如此,忘了关闭车灯导致汽车无法启动是谁的问题?是游客自己的问题。谁最适合解决问题?是游客自己,他只需要关闭车灯就可以了。所以镇长设立充电桩,多招一个警察帮游客充电,都使问题更加复杂。但是游客又没有意识到问题的存在,所以不去解决问题。那么要做的事情就不是去帮游客解决问题,而是提醒他问题的存在:你的灯亮着吗?游客意识到问题的存在,他就会自己解决问题。
软件需求开发中,也有很多帮用户解决问题的场景。日常开发中,产品、运营、开发、测试、运维,也有很多交互合作,需要互相帮助;哪些问题对方可以轻易解决,哪些问题应该通过修改软件功能来解决,应该思考清楚。
鱼是最后一个看到水的,身处问题之中的人往往并不觉得有问题
身处问题之中的人常常并不能感知到问题的存在,正如身在水中的鱼儿看不到水一样。太多的问题被人们的适应能力忽略掉了,直到有人解决了这些问题,身处其中的人才恍然,原来过去的方式都是有问题的。
所以,如果你到一个新环境中,发现存在着一些问题,而身处其中的人却熟视无睹,往往不是他们有问题,也不是你有问题,可能只是他们已经适应了问题的存在,而你还没有适应。
关于问题的定义有个公式:问题 = 期望-体验。
到一个新环境中,大家体验差不多,但是你的期望和其他人不同,你就会感受到问题。而这种感受则可能是你出人头地的机会:如果你解决了这些问题,其他人也会明白过去的方式是有问题的,而你就是那个解决问题的人。
小结
一个技术,是不是真的能解决问题,是衡量一个技术是否有效的主要标准。而业务究竟遇到了什么问题,用什么样的技术才能真正有效地解决问题,是工程师在进行技术落地之前必须要考虑清楚的事情。
不去思考,真正地面对问题,总是试图用自己擅长的技术,或者业界热门的技术解决工作中看似一样,其实大不相同的业务问题,既不能够真正解决问题,为公司创造价值,也不能够提升自己的技术水平,获得真正的进步。
如果自己用技术总是能有效解决问题,在这个过程中,也会不断增强自己的技术自信,知道自己用技术可以创造真正的价值,自己可通过技术参与到改造世界的过程中,也会树立起技术的信仰。不会总是犹豫,自己是不是要转管理,是不是要转行。
思考题
隧道车灯的小故事对你有什么启发?
如果你是一个管理者,你团队某个员工工作不认真,工作效率低,是谁的问题?是公司的问题吗?是你的问题吗?是员工自己的问题吗?如果是员工自己的问题,你该如何提醒他问题的存在,并进而帮助他提高工作效率?
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,81 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
37 技术沟通之道:如何解决问题?
我们在日常工作中,总要和很多人合作。有时候,我们需要依赖别人的工作结果,以作为我们工作的输入;有时候,我们的工作产出需要交付给别人,才能产生最终的价值。在这些合作过程中,可能会遇到各种问题。
如何通过有效的沟通解决各种问题,这里我给出一些建议,供你参考。
如果某人能够解决问题,而他自己却感受不到问题,那么就让他感受一下
在工作合作的过程中,有的时候,对于对方来说,明明是举手之劳的事情,但他偏偏在拖延,你去催促也没什么效果。这时候,我们很容易将问题归结为对方的工作态度有问题,事实上,很多时候,其实是对方没有理解你的问题,他觉得你在没事找事,你才是工作态度有问题的人。
将问题归结为人的态度问题,大多数情况下,是无法解决问题的,况且,很多时候确实不是态度问题,而是不同的人做事能力、理解能力、立场和看待事物的角度不同而已。所以,如果只是立场和角度的问题,那么就可以将对方拉到同一个立场来解决问题,如果对方没有感受到问题,那么想办法让对方感受一下问题。
通常说来,上司的能力要比你的能力强,调动的资源也比你多,有些事情对你而言可能非常困难,但是你上司也许一句话就可以搞定,这个时候,你可以考虑利用你的上司去解决问题。如果他没有感觉到问题,那么想办法让他感觉到问题。
所以有句话叫做:用人的最高境界是用上司。
有的时候对于一件有风险的工作如果你自己做决策那么当事情不顺利的时候你可能无法承担风险那么你就应该将你的上司拉进来。你可以直接问他有这样一个方案和计划你觉得合适吗但是这种提问方式可能会导致你的方案被上司否定。更好的提问方式是这里有A、B两个方案你觉得哪个方案更合适从而将上司的回答引导到你期望的方案上面去。
而上司一旦回答了你的问题,就等于参与到你工作中去了,当事情出现风险的时候,你再去找他寻求支持的时候,因为是他曾经做出的决策,那么他更容易跟你站在一起,帮你解决问题。
这里要注意的是,当你寻求上司支持的时候,不要问上司怎么办,不要给上司提开放式的问题。一则上司可能不理解你的问题上下文,无法给出合适的建议,从而使上司和你都难堪。再则上司如果给出的方案是你难以执行的,你是在给自己挖坑往里跳。
而封闭式的问题只需要回答好不好就可以比如选择A方案还是B方案就不会有上面的问题。
相反,如果你给下属提问,就不要提封闭式的问题,你问下属这个方案好不好,可能会导致他质疑你的能力,同时也限制了他的能动性,使他无法思考和调查更多的解决方案。
直言有讳
在合作的过程中,合作的小伙伴可能犯一些错误,如果这个错误影响了你,你应该指出来,而不是为了和谐假装视而不见,任由事情向失败的方向滑落。但是,这里要注意的是,你指出错误是为了改正错误,达成目标,而不是为了责备、打压对方,也就是所谓的:要批评而不要责难,要对事而不要对人。
如果你针对人,那么对方就一定和你处在对立的一面,你们就是在进行人际斗争,而不是在解决问题。直言有讳就是说,指出负面情况的时候,要直接,不要兜圈子、说含糊话,否则你的语言就没有力量,无法解决问题,但是也不要想说什么就说什么,要有所避讳,主要就是不要把问题指向人。可以说这件事情这样做是不对的,但是不要说你这个人是有问题的。
即使直言有讳,但是有的时候还是会引起人与人之间的对立,特别是在你反对对方的某个方案的时候,对方很容易就认为你是在反对他,进而排斥你的建议。这方面,我在阿里巴巴的时候,跟我当时的上司,学到一个非常好的技巧。
他当时是阿里巴巴的首席架构师,要经常参与各种技术方案的评审会,也要否定掉很多的技术方案,但是他几乎没有和任何他要反对的技术方案的提出者发生过争执或者冲突,固然,他有很大的技术影响力和技术权威,但另一方面,他也有很好的反对技巧。
后来,我总结了一下,就是以赞成的方式表示反对。当他要反对一个技术方案的时候,他先是表示赞成,他会说,这个方案很好,然后从设计、价值几个方面快速说几个比较好的点,这个时候,方案的设计者就和他站在同一个立场上了,将他接纳为自己人。接着,他就会将话题转换,他会说:“但是,我还有几个小小的疑问和建议。”然后,他会说出他反对的观点,而设计方案的提出者因为已经从内心接纳了他,所以能够认真倾听他的疑问和建议,重新思考自己的方案。
还有一种情况,就是有些新来的同事,会针对公司现状提出各种建议和方案,这些方案和建议有的并不靠谱,但是,如果你直接指出其中的不靠谱之处,可能会非常打击新同事的积极性,他们甚至会怀疑公司的合作氛围。
这种情况下,适当的逃避问题,反而是一种解决问题的正确方法。可以跟新同事说:我今天比较忙,改天我们组织个会议详细聊。将讨论的时间推后,将讨论的门槛提高(组织会议),新同事将有时间更严肃地思考他的方案,他会自己发现方案的问题,自己放弃这个方案。这样的结果,对新同事,对同事之间的关系,对公司都有好处。
如果你想解决一个大家都不关注的问题,那么试试让问题变得更糟
有的时候,系统架构已经欠了太多技术债,摇摇欲坠,你想要做一次重构,但是团队上下都以事情太多、忙不过来为由不支持;还有的时候,你想要对系统加一个应用防火墙,以保护系统安全,但是大家都觉得你没事找事,瞎折腾。
这种情况下,你怎么办?在你力所能及的范围内做一些修修补补,避免问题的发生?其实,这样做,只会让问题看起来确实不那么严重,并不需要着急去解决,距离完全解决问题反而是拖延了。事实上,很多问题,拖得越久,越难解决。
所以,如果你觉得这里真的有问题,需要尽快解决,那么就不要试图对问题进行修修补补,使问题被拖得越来越久。也许你放任问题发生,尽快暴露出问题,反而却使大家对问题的严重性达成一致意见,完全支持你去解决问题。
大家都听说过“亡羊补牢”这个成语,以前我一直觉得这是一个贬义词:一个人直到丢了羊才去修补他的羊圈。现在,我渐渐觉得,这也许才是做事的正确方式,工作、生活中每天有太多的事情需要去做,你怎么知道哪些事情是重要的?如果是在一个团队中,你怎么让大家相信,你应该做的事情是重要的?也许“丢几只羊”才能让自己、让大家真正意识到问题的严重性,也许这是我们真正解决问题必须要付的代价。
如果你不填老师想要的答案,你就是个傻瓜
我们每天在解决各种问题,帮产品经理解决问题,帮用户解决问题,其实我们最终都是在帮自己的上司解决问题,你如果不解决这些问题,你的上司可能就会遇到问题。
因此,如果你觉得一个问题很重要,而你的上司却不觉得,那么你辛苦去解决这个问题可能就是在白费功夫。你无法在一个管理体系中获得认可,你的工作无法获得正反馈,你的努力是无法持续的。
所以,如果这个问题真的很重要,而你无法让你的上司认可其重要性,那么对于你而言,真正严重的问题不是问题本身,而是你的上司本身。
既然员工是以上司的意志作为自己工作的依据,那么就可以得出一个推论:管理者对待问题的视角和态度,决定了下属会成为什么样的人。管理者的眼光和判断会决定团队做事的风格和方向,也决定了什么样的人会加入团队,什么样的人会选择离开。最终这个团队的人都会变成某种类型的人,虽然这可能完全不是管理者期望的,但结果却往往如此。
小结
这两篇专栏文章都是关于问题的。我们的工作、生活都是由一个个问题组成的。但是发现问题,解决问题其实并不能让我们超越现状,获得更多的自由和成就。太沉迷于解决问题,会使我们的视野和努力专注于过去,而不是放眼于未来。
事实上,真正的成就与超越来自于对未来的探索和追求,而不是对当下问题的分析和处理。
思考题
如果未来更值得我们去思考,那么这里有一个真正的问题:假如今天晚上所有困扰你的问题都消失了,明天你想做什么?如果你的回答是睡觉、旅游,甚至是学习,那么请再想一想,睡觉、旅游、学习之后呢?你的人生真正想要的是什么?
欢迎你在评论区与我分享你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,77 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
38 技术管理之道:你真的要转管理吗?
做技术开发同学的职业规划通常有两个方向:一个是持续做技术,成为技术专家、架构师;一个是转管理,带领技术团队做开发。开发团队需要管理者,那么开发出身的工程师做管理者也是顺理成章的事。过去十几年,很多优秀的工程师成功转为技术管理人员,成功的比例似乎比成长为技术专家的比例还要高一些。这也给了更多工程师转管理的信心,似乎技术转管理是一件相对比较容易的事。
事实上,过去十几年技术人员之所以能够更容易转为管理人员,根本原因在于开发行业的快速扩张,过去十几年,随着互联网的快速发展,从事软件开发的从业人员数量大概增长了几十倍,开发团队规模迅速扩张。必须要有技术人员成为管理者,以管理越来越庞大的技术团队。
如果一个人在技术部门只有十来个人的时候加入公司经过几年发展公司现在技术部门有100多人组织上差不多需要划分为十多个开发小组每个小组需要一个技术主管那么就需要10多个技术管理者所以在公司早期加入的这个开发人员如果能够胜任工作跟着公司一起成长那么大概率地会被任命为技术主管。
如果公司继续发展技术部门达到1000多人那么100多人的时候加入公司的技术人员也有很大概率会被任命为技术主管如果这个人在管理方面表现得足够好那么他可能会被继续提拔成为经理、总监、CTO在管理的道路上越来越成功。
看起来,技术转管理这条路似乎很光明,是软件技术人员一条不错的职业发展之路。
但是,这条光明的道路其实隐藏了一个非常重要的前提,那就是技术团队规模必须指数级增长,才能不断产生足够数量的管理岗位空缺,才会让后来的人跟前面加入公司的人一样有机会成功转型管理。
事实上,过去十几年中,整个行业的软件开发从业人员确实是指数级增长的,但是最近几年,这个增长势头已经明显变慢,未来会怎么样,相信不用我说,你也能做出判断。
如果整个行业的软件开发人员数量从现在开始不再增加,那么现在的工程师转管理的难度将比自己的前辈难一个数量级。所以,如果你觉得你的主管、经理的管理水平不过如此,你做管理不比他们做的差,这是远远不够的,这并不能够支持你成功转型管理。这是因为他们转管理的时候,难度要远低于你现在转管理的难度,如果你的规划是将来几年转管理,那么局面会更加悲观。
但是,我并不是在这里给你打退堂鼓,劝你放弃转管理。我们的国家现在正在进行产业升级,各行各业都需要在科技水平和管理水平上进行升级,以应对更加激烈的全球竞争局面。软件开发也不例外,虽然我们的互联网产业、软件产业看起来和国际接轨,水平还可以,事实上,我们的软件从业人员,不管是技术水平还是管理能力,和发达国家相比还是有较大差距。
最近几年,就我所见,开发人员的技术水平是在快速提升的,从我们这个专栏得到的反馈也确实如此。但是,技术管理者的管理水平却似乎并没有太多的进步,我想,这也许就是你的机会。
但是,你想把握住机会,就不能仅仅以你的前辈作为榜样和基准,而是要进行更科学的管理方面的学习和训练。这里,我跟你分享几个关于管理的基本原理和概念。
彼得定律
彼得在20世纪70年代研究了美国数千个组织包括政府部门、学校、企业等各种类型的组织后发现在一个成熟有效的组织中当一个员工在其岗位能够出色完成工作就会得到晋升被提拔到更高一级职位。如果在这个职位他能够继续出色完成工作就会继续得到晋升直到他晋升到某个职位以后无法出色完成工作为止。
这是职场晋升的一般规则,看起来似乎也没什么,但是彼得在对这些得到晋升的人进行各种观察以后,得到一个结论:在一个层级组织中,每个员工都会趋向于晋升到他所不能胜任的职位。这就是彼得定律,事实上,我们根据晋升的一般规则,也能推导出这个定律。利用这个定律做进一步的推导,还能得到一个彼得定律的推论:一个成熟的组织中,所有的职位都被不能够胜任它的人承担着。这个推论也很好理解,每个人都会晋升到他不能胜任的职位,那么稳定下来以后,所有的职位都被不能胜任的人承担。不得不说这个结论实在是让人有点吃惊,但是却很好地解释了组织中的各种奇怪现象。
彼得进一步对这些不能胜任自己职位的人进行观察,发现当一个人位于他不能胜任的职位上时,他必须投入全部的精力才能有效完成工作,这个职位也被称作这个人的彼得高地。一个处于彼得高地的人,精疲力尽于他手头的工作,就无法再进行更进一步的思考和学习,他的个人能力提升和职业进步都将止步于此。
所以,一个人在其职业生涯中能够晋升的最高职位,能够在专业技能上进化的最高阶段,依赖于他的专业能力和综合素养,依赖于他拥有的持续学习和专业训练的条件与环境。和他晋升的速度无关,有时候也许恰恰相反。
对公司而言,真正有价值的是你为公司解决了多少问题,而不是完成了多少工作,工作本身没有意义,解决问题才有意义。对于你自己而言,真正有价值的不是你获得了多快的晋升,多高的加薪,而是你获得了多少持续高强度训练的机会。而这两者,本质上是统一的。
所以,对自己未来有更多期待,更有进取心的工程师们,应该将精力更多放在发现企业中的各种问题并致力于去解决问题,在这个过程中,你将同步收获职场晋升和个人能力提升。
用目标驱动
在技术管理领域,常见的管理方式有两种,一种是问题驱动型管理,一种是流程驱动型管理。
问题驱动型管理着眼于问题,每天关注最新的问题是什么,然后解决问题。流程驱动型管理着眼于流程,关注事情的进展是否符合流程规范,是否在有序的规章制度下行事,看起来像监工。
老实说,这两种都不是高效的管理方法。对于技术管理而言,更高效的管理方式是目标型管理。
目标驱动的管理者关注的是目标,公司的目标是什么?部门的目标是什么?团队的目标是什么?我的目标是什么?我和我的团队做这些事情的价值和意义是什么?不断问自己:我如何做才能为公司,为客户创造价值?
目标驱动的管理者并不特别关注问题他更关注解决方案。当系统出现故障的时候他不会关注是谁导致的bug他更关注谁可以解决这个bug。当项目进展缓慢他并不关注是谁导致了拖延他更关注我们如何做才能赶上进度。他不问问题为什么出现因为他知道所有的问题最后都是人的问题而纠结于人的问题只能导致人和人的扯皮。
目标驱动的管理者其实并不是不关注问题,他只是不用问题进行管理,不让团队纠结于问题之中,而是去着眼于未来和解决方案本身。管理者自身其实对问题非常清楚,但是他把问题转化为目标,引导团队前行。
OKR这个词最近两年在互联网企业很风靡OKR就是Object目标与Key Result关键结果。通过对团队和个人制定有挑战性的目标和可量化的结果标准进行管理。可以说是目标驱动管理的一种落地实践方案。
通常的做法是在一个OKR周期开始的时候每个团队和个人制定自己的OKR我目标是什么达成目标后产生的关键结果是什么。所有的OKR都需要公开通过阅读自己合作伙伴和上级部门的OKR了解自己的目标在组织中的作用自己工作的结果对组织的价值从而了解自己在组织中的位置使自己的工作成为组织战略的一部分。
在工作过程中根据目标不断调整自己的工作方式期间需要定期进行review到目前为止我产出的成果有哪些距离我们的目标是更近了还是更远了我们还需要做哪些工作才能达成我们的结果。
需要注意的是OKR并不是用来考核的不应该以目标是否达成作为考核的依据否则每个人都倾向给自己制定最简单的结果和目标。OKR是一种管理手段通过对目标的制定和对结果的审核将团队和员工的奋斗目标和公司的战略目标统一起来使每个人都能理解自己工作的目标是什么在整个公司战略中的地位是什么使个人更加成为公司整体的一部分。
小结
管理学作为一个学科已经出现了上百年的时间,它有自己的专业工具和方法,有自己的客观规律。仅仅技术做得好并不能保证可以好管理,想转管理的同学应该专门学习一下管理学的基础知识,而不是仅仅看了两篇管理文章,觉得自己技术不错还擅长沟通就转管理了。
思考题
最后我问你一个问题吧也是人们常见的疑惑OKR和KPI的关系到底是什么
欢迎你在评论区写下你的思考,也欢迎把这篇文章分享给你的朋友或者同事,一起交流一下。

View File

@ -0,0 +1,169 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
38 答疑 工作中的交往和沟通,都有哪些小技巧呢?
《倚天屠龙记》里有这么一段,赵敏和周芷若势同水火,非要拼个你死我活,结果张无忌来了后,几句话就让两个人情同姐妹。看的明教众人面面相觑,最后得出一个结论:能者无所不能。
我认识的很多技术高手也常常给我这样一种感觉,他们不只是技术好,他们几乎无所不能。对业务的理解,对人际关系的把握,对未来发展的预见性,对事物本质一针见血的描述,常常使我既惊叹,又佩服。
曾经我以为这些人是因为技术好所以样样精通,后来我猜想他们是因为样样精通所以技术好。软件开发是一个实践性很强的技术活动。要想做好软件开发,就需要有较强的社会实践能力。我在这个模块讲了一些技术之外的社会实践规律,这些规律和技术的关系也许比大多数人想象得更加紧密。
关于工作中的交往与沟通,我这里再分享一些小的技巧。
保持交际和赞美
很多程序员不喜欢交际,觉得浪费时间。事实上,保持适当的交际,可能会帮你节约很多时间。一方面,良好的交际关系可以营造一种更愉快的工作氛围,自己和其他同事可以保持更好的工作状态;另一方面,处理某些问题的时候,比如,需要指出某个人工作失误的时候,良好的关系可以缓冲这类指责带来的负面影响。相反,如果你们平时见面的时候就形同路人,这个时候,他更有可能认为你是对他个人的否定,而不是对工作本身的意见。
而且,保持适当的交际并不需要花费多少时间,仅仅是简单的寒暄,聊聊天气,就可以拉近两个人的距离。如果寒暄的时候,对方正好有个不错的机会想要找人合作,也许还会给你带来更加巨大的收益。
除了简单的寒暄,赞美是一种更加高效的交际方法。曾经有人在网上调查,有什么技能是可以很快学到而终身受用,出乎意料地,排在最前面的答案不是驾驶、游泳、烹饪这些很硬的技能,而是一项很软的技能:赞美他人。
赞美不是奉承,不是泛泛地说一些:你好棒,你真厉害。赞美是对对方做得好的事情,明确表达你的称赞。称赞的是对方的行为,比如对小孩子说:你摔倒了没有哭,而且自己爬起来,好棒。对同事说:谢谢你昨天晚上加班,我们今天可以按期发布项目。对方通过你的话能感受到真诚,得到正向的激励,而不是敷衍和世故。
就我们目前的环境而言,赞美太少了而不是太多了,尝试多去赞美别人,你会得到意想不到的收获。此外,赞美和批评并不冲突,你可以对一个人既赞美又批评,只要你明确指出赞美和批评的具体事情,对方就可以更加明白你的标准和边界,后面的合作也会更加的顺利。
平衡力量和温暖
职场中什么样的领导最受欢迎,答案是,同时拥有力量和温暖的人。
所谓的力量是指能够达成目标的能力,包括技术能力、整合资源的能力、决策力、意志力等各种能力,通过这些能力,能够完成工作目标和任务。人们愿意和有力量的人合作,追随有力量的人,因为这样获得成功的可能性就越大。
而温暖是指拥有让他人产生熟悉感和归属感的能力。表明上看,这种能力是一种共情能力,可以理解他人的喜怒哀乐,进而产生熟悉和归属的感觉。事实上,这是一种构建共同的目标和价值观的能力。
每个人的喜乐并不相同,如果是被动地和其他人共情,是无法深度地整合一个团队的所有人的。而通过构建共同的目标和价值观,让大家产生归属感,进而营造出一种温暖的团队氛围。
如果一个人光有力量而没有温暖,那么和他合作的人可能会嫉妒他,或者对他感到恐惧。而一个人光有温暖没有力量,大家只会觉得他很萌。同时拥有力量和温暖的人,会让他人感到钦佩。而既没有力量有没有温暖的人,大家会蔑视他。
在平衡力量和温暖方面,马云做得可谓出类拔萃。我在阿里巴巴工作的时候,能够强烈感觉到这种力量和温暖,一方面大家坚信公司和自己团队的事业一定能成功,另一方面又非常认可自己做的工作的意义和价值。
力量和温暖是既一种内在的属性,也可以通过一些外在的行为表现。一个占据更大空间的人会给人力量感,所以不要含胸驼背,把自己缩在一起;另外,主动碰触别人和适当认错也是一种力量的体现。表达对他人的理解以及分享一些相同的经历则会传递温暖的感觉。
学会聆听和提问
在工作沟通的过程中,有时候直接提出自己的观点或者方案,并不能得到其他人的赞同和支持,因为其他人可能并不了解你的问题和场景,没有思考过你的问题,所以对你的观点和方案不置可否,不积极参与。这种情况下,可以通过一些提问的方式,将对方拉到你的思考上下文中,让对方通过自己的思考得出你想要表达的观点和方案,这种情况下再去推动事情的发展就容易多了。
我在第36篇提到这样一个思考题
如果你是一个管理者,你团队中某个员工工作不认真,工作效率低,是谁的问题?是公司的问题吗?是你的问题吗?是员工自己的问题吗?如果是员工自己的问题,你该如何提醒他问题的存在,并进而帮助他提高工作效率?
这个问题其实并不简单,员工工作态度不好、工作效率低,可能有企业文化的问题,可能有领导风格的问题(也就是你的问题),可能有项目阶段性挫折的问题。假设这里你的判断是员工自己的问题,因为团队其他人都没有态度问题,那么你该如何帮助他纠正问题?
直接指出问题也许不是一个好主意,因为可能会引发员工的对立情绪:你对我有意见。你不妨可以在和员工交流的时候问一些问题,以提醒他问题的存在:如果你给自己近期的工作成果打分,你会打几分?你觉得其他同事对你近期的工作成果打分,会打几分?如果你自己是用户或者老板,你是否对自己的产出满意?
通常情况下,如果真的是员工自己的问题,那么通过回答这几个问题,他会意识到问题的存在,并想要主动去改变状况。这要比你直接指出他的问题或者批评他效果要更好一些。
如果他已经意识到问题,那么你还可以更进一步提问:你希望我做些什么,可以帮助到你?你下一步有什么打算,可以改进目前的状况,让你自己基本满意?你觉得完成这些改进大概需要多长时间?两周?好,那么我们两周以后再聊一次。
小结
彼得·德鲁克曾经说过,最好的管理学书籍是小说。因为管理就是将每个人的主观能动性发挥出来,为组织创造价值,但是人性是复杂的,任何刻板的管理教条都会遇到人性的阻力,进而演化成组织前进的阻碍。而洞悉人性,善于利用人性的特点,把相关各方的利益统一起来,事情会自然前进。
有些同学纠结将来走管理路线还是技术路线,其实这两者之间的鸿沟并没有想象得那么大,不管是做好技术还是做好管理,都需要有很强的社会实践能力,都需要理解人性,利用人性,特别是理解和利用好自己的人性。
最后,用一篇我十几年前翻译的一篇短文《软件架构师之道》作为这个模块的结尾吧!
0
一个杰出的架构师,
团队几乎感觉不出他的存在。
次一点的架构师,大家都爱戴他。
再次一点的,大家都怕他。
而最糟的,大家都鄙视他。
1
架构师任事物按照自身的规律发展。
他让自己的行为符合事物的本质。
同时他又跳出束缚,
让他的设计照亮自己。
2
架构师用心旁观这个世界,
而他坚信他内心的映像。
他的心像天空一样开阔,
任世相万物来来往往。
3
优秀架构师不会夸夸其谈,他只是做。
当任务完成的时候,
整个团队都会说:
『天哪,我们居然做到了,全都是我们自己做的!』
4
架构师的权力是这样的:
他让事物自然发展,
毫不费力,也不强求。
他从不失望,
他的精神也就永不会衰老。
5
懂的人不说,
说的人不懂。
没有头绪的人还在讨论过程,
明白的人已经开始做了。
6
优秀架构师乐于用一个例子说明想法,
而不是强加他的意愿。
他会指出问题而不是戳穿它们。
他是坦率的,也是柔顺的。
他的眼睛闪着锋芒,却依然温和。
7
如果你想成为一个杰出的领导,
就不要去试图控制什么。
带着一个弹性的计划和概念推进,
团队会管好他们自己。
你越是强加禁令,
队伍越是没有纪律。
你越是强制,
大家越是没有安全感。
你越是从外面寻找帮助,
团队越是不能独立自主。

View File

@ -0,0 +1,138 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
加餐 软件设计文档示例模板
在[第9篇文章]中我讲了每种UML模型图的画法以及这些画法分别适用于什么样的设计阶段我们也可以将不同阶段输出的模型图放在一个文档中对每张模型图配以适当的文字说明构成一篇设计文档。
对于规模不太大的软件系统,我们可以将概要设计文档和详细设计文档合并成一个设计文档。这一篇文章中,我会展现一个设计文档示例模板,你可以参考这个模板编写你的设计文档。
文档开头是设计概述,简单描述业务场景要解决的核心问题领域是什么。至于业务场景,应该在专门的需求文档中描述,但是在设计文档中,必须要再简单描述一下,以保证设计文档的完整性,这样,即使脱离需求文档,阅读者也能理解主要的设计。
此外,在设计概述中,还需要描述设计的非功能约束,比如关于性能、可用性、维护性、安全性,甚至开发和部署成本方面的设计目标。
然后就是具体的设计了,第一张设计图应该是部署图,通过部署图描述系统整个物理模型蓝图,包括未来系统长什么样。
如果系统中包含几个子系统,那么还需要描述子系统间的关系,可以通过子系统序列图,子系统活动图进行描述。
子系统内部的最顶层设计就是组件图,描述子系统由哪些组件组成,不同场景中,组件之间的调用序列图是什么样的。
每个组件内部,需要用类图进行建模描述,对于不同场景,用时序图描述类之间的动态调用关系,对于有复杂状态的类,用状态图描述其状态转换。
具体示例模板如下:
1 设计概述
……系统是一个……的系统,是公司……战略的核心系统,承担着公司……的目标任务。
1.1 功能概述
系统主要功能包括……,使用者包括……。
1.2 非功能约束
……系统未来预计一年用户量达到……日订单量达到……日PV达到……图片数量达到 ……。
查询性能目标平均响应时间100
下单性能目标平均响应时间30
……性能目标平均响应时间30
系统核心功能可用性目标:>99.97%
系统安全性目标:系统可拦截…… 、……、……攻击密码数据散列加密客户端数据HTTPS加密外部系统间通信对称加密
数据持久化目标:>99.99999%。
2 系统部署图与整体设计
系统上线时预计部署……台物理机,……个子系统,和公司……系统交互,和外部第三方……个系统交互。
2.1 系统部署图
子系统1的功能职责为……部署……台服务器依赖……和……子系统实现 ……功能。
子系统2参照子系统1来写。
2.2 下单场景子系统序列图
下单时子系统先发送……消息到子系统3子系统3需要执行……完成……处理然后发送……消息到财务系统消息中包含……数据。
收到……的处理结果……后子系统1发送……消息到……子系统2……。
2.3 退款场景子系统序列图
退款子系统先发送……消息到子系统3子系统3需要执行……完成……处理然后发送……消息到财务系统消息中包含……数据。
收到……的处理结果……后子系统1发送……消息到……子系统2……。
2.4 退款场景子系统活动图
如图所示:
退款开始时子系统1处理XXX然后判断m的状态如果m为真请求子系统3处理ZZZ如果m为假子系统继续处理ZZZ并结束。
子系统3处理ZZZ后一方面继续处理XYZ一方面将……消息发送给财务通进行AAA处理。
子系统在处理完XYZ后返回子系统继续梳理YYY然后退款处理结束。
3 子系统1设计
子系统1的主要功能职责是……其中主要包含了……组件。
3.1 子系统1组件图
子系统1包含6个组件
组件1的功能主要是……需要依赖组件2完成……是子系统1的核心组件用户……请求主要通过组件1完成。
同样的组件2也可以参照组件1来这样写。
3.1.1 场景A组件序列图
对于场景A首先组件1收到用户消息CCC然后组件1调用组件2的XXX方法……。
3.1.2 场景B组件活动图
在场景B中首先组件收到……消息开始处理……然后判断……如果为true那么……如果为false那么……。
3.2 组件1设计
组件1的主要功能职责是……其中主要包含了……类。
3.2.1 组件1 类图
Class1实现接口Interface1主要功能是……Class1聚合了Class2和Class3共同对外提供……服务Class1依赖Class4实现……功能Class4……。
3.2.2 场景A 类序列图
在场景A中当外部应用调用类1的create方法时类1……。
3.2.3 对象1状态图
对象1运行时有4种状态初始状态是状态1当条件1满足是状态1转换为状态2当条件3满足时状态2转换为状态4……。
3.3 组件2设计
重复上面的格式。
4 子系统2设计
重复上面的格式。

View File

@ -0,0 +1,27 @@
因收到Google相关通知网站将会择期关闭。相关通知内容
结束语 期待未来的你,成为优秀的软件架构师
软件编程似乎是一件没有门槛的工作,任何接受过义务教育的人经过一些基本的编程培训就能够写一些可以执行的代码。但是,想要设计一个架构良好、易于维护、富有弹性的系统,却是一件非常困难的事。就我所见,很多项目团队压根没有“系统架构设计”这样一个软件开发阶段,也没有一个对整个系统技术架构掌控的人,项目管理者往往只是关注内外部的各种沟通,和人员、进度的管理,任由系统架构在日趋一日的开发过程中逐渐腐烂。
我怀疑很多软件工程师从来没有体会过良好架构设计带来的好处系统模块、层次边界清晰团队每个人的工作都很少耦合需求变更不需要在一大堆代码中改来改去只要扩展几个类就轻松实现用户量快速增加时只需要变更部署方案就可以应对甚至不需要改动代码。而得到最大好处的则是老板他不必因为急剧膨胀的技术人员招聘预算而愁眉不展也不必在公司年会上宣布996加班而被整个业界的唾沫星淹死。
一个优秀的软件架构师应该能够设计一个良好架构的系统并在它漫长的生命周期中保持架构持续演进、清晰合理。一个优秀的软件架构师应该能够写漂亮的技术PPT也能写漂亮的代码让自己开发的核心代码支撑起系统的核心架构又让自己的架构方案得到大多数人的拥护。一个优秀的软件架构师应该有宏观的技术视角能够用更广阔的愿景去诠释当前项目的技术、架构和未来的演化趋势。一个优秀的软件架构师应该拥有某种技术影响力和领导力无需职位上的权力就可以让其他工程师听信于他。一个优秀的软件架构师还应该掌握一些特别的管理、谈判技能让自己的技术构想被其他工程师、项目经理、老板和用户接纳。
如何才能拥有这些能力,成为一个技术团队中值得信赖的优秀软件架构师?这就是我的专栏想要为你呈现的答案。但是受专栏篇幅,以及个人的能力、精力所限,我只能尽力将相关的内容进行有组织、自洽地呈现,为你展现出这些内容的核心思想以及其内在的关联性。而要想真正将这些内容融会贯通,内化为自己的知识和技能,还需要你在工作中更多地思考和实践。
电影《百万美元宝贝》中说:“拳击是一种不自然的运动。因为拳击中的每样东西都和本能是相反的。你想向左移动,不是向左迈步,而是右脚用力。向右移动的时候左脚用力。想打出一记重拳,你需要后退一步。面对打击,你要迎着疼痛而上,而不是像有理智的人那样躲避。”
我们在职业技能进阶的道路上也是如此,你如果依着本能,跟着潮流,除非你极有天分,否则很难超越自己和环境。架构师的成长之路是一条攀登之路,你需要有意识地训练自己,不断挑战自己。架构师的成长之路是一条修行之路,你要和自己的本能做对,不断审视自己,让自己从舒适区跳出来,针对自己的不足和缺陷为自己设计有困难的任务和目标。
这条路注定艰辛,但是走在这样的人生之路上,你会充分体验到超越自我的愉悦,理解到生而为人的自由意志,也许这也是人生的某种意义吧。
对我而言,这是我在极客时间开设的第二个专栏,第一个专栏是[《从0开始学大数据》]。在这两个专栏的筹备、更新过程中,留言、互动让我受益良多,感谢一路以来的支持与陪伴。
最后,这里有一份毕业问卷,题目不多,希望你能花两分钟填一下。十分期待能听到你说一说,你对这个课程的想法和建议。