modify
This commit is contained in:
parent
4ee347387c
commit
84e5ba54ec
@ -9,11 +9,17 @@
|
||||
|
||||
## 一、Hadoop的局限
|
||||
|
||||
HBase是一个构建在Hadoop文件系统之上的面向列的数据库管理系统。既然是基于Hadoop的,那么就需要先介绍一下Hadoop存在的限制。
|
||||
HBase是一个构建在Hadoop文件系统之上的面向列的数据库管理系统。
|
||||
|
||||
<div align="center"> <img src="https://github.com/heibaiying/BigData-Notes/blob/master/pictures/hbase.jpg"/> </div>
|
||||
|
||||
Hadoop擅长存储任意的、半结构甚至非结构化的数据,主要通过HDFS来存储,使用MapReduce来处理。但是Hadoop只能执行批处理,并且只能以顺序方式访问数据,这意味着即使是最简单的工作,也必须搜索整个数据集,无法实现对数据的随机访问。实现数据的随机访问是传统的RDBMS所擅长的,但其却不能存储海量的数据。在这种情况下,必须有一种新的方案来解决海量数据存储和随机访问的问题,HBase就是其中之一。
|
||||
这里先介绍一下Hadoop的优点和存在的限制。Hadoop擅长存储任意的、半结构甚至非结构化的数据,主要通过HDFS来存储,使用MapReduce来处理。以下是三种数据类型的解释:
|
||||
|
||||
- 结构化数据:即以关系型数据库表形式管理的数据;
|
||||
- 半结构化数据:非关系模型的,有基本固定结构模式的数据,例如日志文件、XML文档、JSON文档、Email等;
|
||||
- 非结构化数据:没有固定模式的数据,如WORD、PDF、PPT、EXL,各种格式的图片、视频等。
|
||||
|
||||
Hadoop是传统数据库的补充,是海量数据存储的最佳方法,支持用户在恰当的时候存储和获取数据,并且针对大文件的存储,批量访问和流式访问做了优化,同时也通过多副本解决了容灾问题。但是Hadoop只能执行批处理,并且只能以顺序方式访问数据,这意味着即使是最简单的工作,也必须搜索整个数据集,无法实现对数据的随机访问。实现数据的随机访问是传统的RDBMS所擅长的,但其却不能存储海量的数据。在这种情况下,必须有一种新的方案来解决海量数据存储和随机访问的问题,HBase就是其中之一。
|
||||
|
||||
> 注:HBase,Cassandra,couchDB,Dynamo和MongoDB都能存储海量数据并支持随机访问。
|
||||
|
||||
@ -25,11 +31,13 @@ HBase是一个构建在Hadoop文件系统之上的面向列的数据库管理系
|
||||
|
||||
HBase是一种类似于Google’s big table的数据模型,它是Hadoop生态系统的一部分,它将数据存储在HDFS上,客户端可以通过HBase实现对HDFS上数据的随机访问。它具有以下特性:
|
||||
|
||||
- 线性和模块化的可扩展性;
|
||||
- 提供一致的读写操作;
|
||||
+ 不支持复杂的事务,只支持行级事务,即单行数据的读写都是原子性的;
|
||||
+ 由于是采用HDFS作为底层存储,所以和HDFS一样,支持结构化、半结构化和非结构化的存储;
|
||||
+ 支持通过增加机器进行横向扩展;
|
||||
|
||||
- 支持数据分片;
|
||||
- 支持RegionServers之间的自动故障转移;
|
||||
- 易于使用的Java 客户端 API;
|
||||
- 易于使用的Java客户端 API;
|
||||
- 支持BlockCache和布隆过滤器;
|
||||
- 过滤器支持谓词下推。
|
||||
|
||||
@ -49,15 +57,27 @@ HBase是一个面向列的数据库管理系统,这里更为确切的而说,
|
||||
|
||||
> 图片引用自博客:HBase 是列式存储数据库吗(https://www.iteblog.com/archives/2498.html)
|
||||
|
||||
Hbase的表具有以下特点:
|
||||
|
||||
- 容量大:一个表可以有数十亿行,上百万列;
|
||||
|
||||
- 面向列:数据是按照列存储,每一列都单独存放,数据即索引,在查询时可以只访问指定列的数据,有效系统的I/O性能;
|
||||
|
||||
- 稀疏性:空 (null) 列并不占用存储空间,表可以设计的非常稀疏 ;
|
||||
|
||||
- 数据多版本:每个单元中的数据可以有多个版本,按照时间戳排序,新的数据在最上面;
|
||||
|
||||
- 存储类型:底层所有数据的存储都是字节数组(byte[])
|
||||
|
||||
|
||||
|
||||
## 四、Phoenix
|
||||
|
||||
Phoenix是HBase的开源SQL中间层。使得您可以使用标准JDBC API而不是常规HBase客户端API来操作HBase上的数据。
|
||||
|
||||
简单来说,如果你要直接使用HBase,你就只能通过它的Java API来进行调用,虽然官网介绍它的API是简单易用的,但相比于使用一行SQL就能实现数据的查询过滤,原生的API还是过于复杂,Phoenix 的理念是`we put sql SQL back in NOSQL`,即你可以使用标准的SQL就能完成对HBase中数据的操作。
|
||||
简单来说,如果你要直接使用HBase,你就只能通过它的Java API来进行调用,虽然官网介绍它的API是简单易用的,但相比于使用一行SQL就能实现数据的查询过滤,原生的API还是过于复杂,Phoenix 的理念是`we put sql SQL back in NOSQL`,即你可以使用标准的SQL就能完成对HBase中数据的操作。这也就意味着使用Phoenix你可以无缝集成Spring Data JPA或 Mybatis等常用的持久层框架来操作HBase。
|
||||
|
||||
Phoenix完全使用Java编写,作为HBase内嵌的JDBC驱动。Phoenix查询引擎会将SQL查询转换为一个或多个HBase scan,并编排并行执行以生成标准的JDBC结果集,同时Phoenix还拥有二级索引等Hbase不具备的特性,这使得Phoenix具有接近原生HBase API的性能表现。
|
||||
再一个就是Phoenix的性能表现,Phoenix完全使用Java编写,作为HBase内嵌的JDBC驱动。Phoenix查询引擎会将SQL查询转换为一个或多个HBase scan,并编排并行执行以生成标准的JDBC结果集,同时Phoenix还拥有二级索引等Hbase不具备的特性,这使得Phoenix具有接近原生HBase API的性能表现。
|
||||
|
||||
|
||||
|
||||
|
Loading…
x
Reference in New Issue
Block a user