learn-tech/专栏/计算机基础实战课/加餐02学习攻略(一):大数据&云计算,究竟怎么学?.md
2024-10-16 13:06:13 +08:00

171 lines
13 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

因收到Google相关通知网站将会择期关闭。相关通知内容
加餐02 学习攻略(一):大数据&云计算,究竟怎么学?
你好我是LMOS。
上节课我带你了解了云计算中IAAS层的技术。结合云计算的分层架构下面一层就是PaaSPaaS与IaaS相似区别在于云服务提供商还提供了操作系统和数据库。
这节课我们就一起了解一下云计算PaaS层的大数据体系吧。什么是大数据呢其实这是早在1980年出版的图书《第三次浪潮》里就预见到的一种场景而具体到工程落地层面就不得不提到Google的“三驾马车”。
今天这节课,我想从需求角度,和你讨论一下在工程上为什么要这样设计。
GFS的核心问题
我们先从谷歌文件系统GFS开始说起。
顾名思义,这个系统是用来储存文件的。你可能觉得,存文件听起来好像不难呀?
我们可以仔细思考一下存文件会有什么难度呢先让我们停下手头的工作看看自己电脑上的硬盘空间还有多大500G还是1TB、5TB
没错,空间容量就是我们遇到的第一个门槛,单台电脑的存储空间确实不是无限大的。
接下来我们找出一份大一点的文件把它复制到另一个目录看看复制速度如何这里就碰到了第二个问题——文件写入速度。一般来说机械盘硬盘的最高写入速度是200MB/s左右而固态硬盘的写入速度是3000MB/s左右。
试想一下如果我们有1TB的数据写入硬盘就算真的有一块1TB空间的固态硬盘可以使用那我们也至少需要4天时间数据才能完全写入完毕。
还有一个生活中常见的问题你遇到过电脑故障、死机或者硬盘坏掉的情况么是的在普通PC机器运行的过程中故障其实是常态。你平常用家里的网络打网游时遇到过丢包、掉线、卡顿之类的情况么没错网络故障确实也是我们要考虑的问题。
那么到底怎样才能设计一套文件系统,同时满足以下条件呢:
容量“无限”大;
对大容量的数据读写性能高;
遇到软硬件问题时,系统可靠性也很高。
这里就要用到问题切分和并行化的思想了,这些我们在[第四十节课]也讲过。
比如想要解决文件比较大的问题,就我们可以考虑把它切分成很多份。切分完了之后,我们还得想到鸡蛋(文件)放在一个篮子里,遇到故障“全军覆没”的风险。为此,咱们就得多搞几台机器,多存几份呗。
还担心存的比较慢?那我们就把多个文件并行存储到不同的硬盘上,这样就不会受到磁盘写入速度的限制了。
说到这里,你现在是不是已经跃跃欲试,想要开始实现一套分布式文件系统啦?别着急,让我们先把刚刚讨论到的设计思路梳理一下:
首先为了不给使用者应用程序增加太多负担我们还是希望用户能像以前单机读写文件一样通过简单的API就能完成文件读写。这时候我们就需要抽象出一套统一的客户端client提供给用户使用。
其次是切分成很多份文件。GFS会把每一份文件叫做一个chunk这个chunk大小的默认值是64MB这比操作系统上的文件系统要大一些这么做为了减少GFS client和GFS master的交互次数、提升文件读取性能。同时为了保障可靠性GFS还会为每个chunk保留三个副本。
但是这里还有个问题没解决文件都切成很多份存到很多机器上了我们怎么知道哪一个chunk存到哪里去了呢这时候我们就需要把这种chunk分片文件映射到存储位置、原始文件名、权限之类的关联关系抽象出来我们把这类用来找数据的数据叫做元数据信息。
那么元数据存在哪里好一点?
聪明的你可能已经想到了我们可以给这些服务器分一下类让老大master带着小弟chunkserver来干活儿元数据比较重要所以咱们就交给老大来保管。有了这些思路相信你再看 GFS论文中的架构图时就会感觉清晰很多。
MapReduce的分分合合
接下来我们再说说MapReduce。
我们首先要搞清楚MapReduce是什么当看到MapReduce时你可能感觉它是一个概念但其实不然MapReduce应该是Map、Reduce是两个概念即映射和归约。
用软件实现这两个概念就会形成Map、Reduce两个操作落实到代码中可能是两个接口函数、或者库又或者是进程。我们可以把这些东西理解成一套编程模型。
那么什么是Map呢Map字面意思为映射但本质是拆分。
接下来我们以汽车为例看一下我们把一辆完好的汽车执行Map操作之后的状态如下图所示
从上图可以看出执行map操作时汽车首先作为输入然后标记出汽车的各种零部件最后汽车被拆分成各种零件。
现在。让我们切换一下视角把这辆汽车转换成用户的大规模数据于是就变成了对一个大数据进行标记然后拆分成许多小数据的过程这就是MapReduce中的Map操作。
什么又是Reduce呢Reduce的字面意思为归约是Map操作是逆向操作其本质是合并。同样地我们以汽车为例看看一辆被Map操作的汽车在Reduce的操作下会变成什么样子。如下图所示
我们可以看到执行Reduce操作时是之前把Map汽车产生的各个零件作为输入然后进行各种零部件的组装最后合并生成汽车或者是更高级的类汽车产品。
同样地把这辆汽车各种零部件换成用户Map后的各种小数据就相当于合并许多个小数据然后生成原来的大数据或者对数据进行更高级的处理这就是MapReduce中Reduce操作的作用。
我们刚刚把一台车子进行了一大波MapReduce操作这台车子就变成了变形金刚了哈哈。 举个例子理解了MapReduce的原理之后我们再来看一下它的六大步骤。
如果你是家大型汽车生产厂家, 你拥有许多不同类型的汽车设计方案Input还拥有许多汽车零件供应商不同的汽车零件供应商会主动挑选不同的汽车零件Split挑选好之后你就把汽车生产方案进行拆解Map
之后再把不同的零件下发到不同供应商的生产车间生产Shuffle最后要能根据不同的顾客需求取用不同的零件拼装成最终的汽车这就是Reduce。拼装好汽车之后会放到售卖部那边等待客户取货Ticket这个过程是Finalize。
所以MapReduce是六大过程简单来说就是 Input、Split、Map、Shuffle、Reduce和 Finalize。那么这六大步骤又是怎样被一套框架管理起来的呢答案其实还是老大Master带着小弟Worker干活。
下面我们结合MapReduce的架构图分析一下它的工作原理。
我们的用户程序要想使用MapReduce必须要链接MapReduce库。有了MapReduce库就可以进行Map、Reduce操作了。
用户程序运行后先声明数据有多少然后需要将它们拆分成一些Mapper和Reducer来执行。假如把数据分成n份那就要找n个Mapper来处理。这时会产生许多Worker这些Worker有的是执行Map操作的有的 Worker是执行Reduce操作的。
最重要的是还会产生一个 Master Worker它与其他Worker的等级是相同的它会调度其它Worker运行并作为用户的代理来协调整个过程让用户可以做其他事情。
Master Worker会让一个Worker去处理0号数据另一个Worker负责处理1号数据等等这就是分配数据的过程。每个Worker都会在本地处理数据并把结果写入缓存或硬盘。当执行Map操作的 Worker完成任务后Master Worker会让执行Reduce操作的Worker去获取数据。
他们会从各个Worker那里获取需要的数据并在本地完成Reduce操作最后将结果写入最终的文件中这就是Finalize。这个过程其实就是前面说过的六个步骤。
BigTable
最后一驾马车就是BigTable。在说它之前我们先聊聊表。
请和我一起思考一下什么是表呢为了更好理解我们可以抄出Excel这个神器来仔细认识一下表的基本构成
不难发现,表是由一个又一个的格子构成的,而每一个格子里的内容,又能通过行和列的坐标定位到。
这时候我们不妨联想一下,是不是我们只需要存储足够多的格子,就可以存储各种各样的表啦。那么光有行、列和格子里内容就足够了么?
并非如此别忘了格子里的内容还有可能会修改。比如上图中的B1单元格里的Linux版本需要从1.0.5更新到1.0.6,因此还需要记录格子的时间。
没错BigTable其实也是这样的思路BigTable把每个格子的数据都抽象成了Key Value的键值对的格式。其中key是由行row:string、列column:string、时间戳time:int64这三部分构成的而Value则是用string来存储的。
这样的Key Value数据结构有没有让你联想到什么其实它就类似于我们数据结构中常用的HashMap。但这个HashMap有点特殊因为它还要支持后面这几种功能
给定几个key能够快速返回小于或者等于某个key的那个数据。
给定key1和key2可以返回key3值中最高的数据。
key也可以只给前缀格式prefix返回所有符合前缀的值。
这个“HashMap”在读、写性能上都要相对比较好。
这个“HashMap”要能持久化因为数据不能丢。
有了上述功能的约束,你是不是感觉一时半会儿还真没想出来,要怎么设计这个数据结构?
其实Google已经把这个数据结构设计好了这个数据结构叫做SSTable具体实现确实有些复杂但好在有官方开源的单机实现——LevelDB。后面还有基于LevelDB演进升级的RocksDB也是一个不错的项目感兴趣的话可以自行了解。
现在我们有了把表化简成小格子再把每个格子使用Key Value结构存储到了单机的“HashMap”数据结构上。接下来我们还得想清楚如何让单机的“HashMap”数据结构变成可以分布式运算的。
这时候,我们就可以把前面这个思路做进一步抽象,你可以结合后面的示意图看一下,具体是抽象成了三层:
首先,对于每个表,我们都需要保存这个表的元数据。
其次如果随着数据增长表变得比较大了我们需要具备自动切分这张表的能力。切分表的最小单位我们叫做Tablet也就是说一张表会对应一个或多个Tablet。
具体到每一个Tablet我们是基于一个或多个单机的“HashMap”数据结构也就是SSTable来实现的而每一个SSTable中存储的又是一堆用Key Value格式表示的单元格。
对应到服务上我们又可以套用前面讲的老大带小弟干活主从架构的思路把一个或者多个Tablet交给Tablet Server这一类小弟服务来干活儿。而老大Master主要负责为Tablet服务器分配Tablets、检测新加入的或者过期失效的Tablet服务器、对Tablet服务器进行负载均衡、对保存在GFS上的文件做垃圾收集、处理和模式相关的修改操作比如建立表和列族
理清了思路,你再来看看后面这张架构图,是不是就很容易理解了呢?
小结
今天我们主要了解了现代云计算PAAS层中大数据体系的由来。其中最核心的就是谷歌的三驾马车即谷歌文件系统GFS、面向大型集群的简化数据处理MapReduce、BigtTable结构化数据的分布式存储系统。
GFSGoogle文件系统是一种分布式文件系统它为Google的大型数据处理应用提供了数据存储和访问功能MapReduce是一种编程模型它允许开发人员更方便地处理大量数据而BigTable是一种高性能的分布式存储系统它可以处理海量的结构化数据。
如果学过今天内容你还觉得意犹未尽想要更深入地学习这三种技术建议阅读谷歌相关的论文和文档并尝试去做一下mit 6.824分布式系统课程提供的课后练习。
思考题
推荐你在课后能搜索GFS、MapReduce、BigTable这三篇原始论文阅读一下结合今天学到的设计过程的思路进一步思考这么设计的优点和缺点分别是什么还有什么改进空间
欢迎你在评论区和我交流讨论,如果觉得这节课内容还不错,也可以转发给你的朋友,一起学习进步。