Update SparkSQL外部数据源.md

This commit is contained in:
heibaiying 2019-06-04 17:29:57 +08:00 committed by GitHub
parent ef71c9d5f8
commit b5181f81ec
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

View File

@ -240,8 +240,6 @@ csvFile.write.format("orc").mode("overwrite").save("/tmp/spark/orc/dept")
Spark同样支持与传统的关系型数据库进行数据读写。但是Spark程序默认是没有提供数据库驱动的所以在使用前需要将对应的数据库驱动上传到安装目录下的`jars`目录中。下面示例使用的是Mysql数据库使用前需要将对应的`mysql-connector-java-x.x.x.jar`上传到`jars`目录下。 Spark同样支持与传统的关系型数据库进行数据读写。但是Spark程序默认是没有提供数据库驱动的所以在使用前需要将对应的数据库驱动上传到安装目录下的`jars`目录中。下面示例使用的是Mysql数据库使用前需要将对应的`mysql-connector-java-x.x.x.jar`上传到`jars`目录下。
> MySQL JAR 可以从本仓库的[resources](https://github.com/heibaiying/BigData-Notes/tree/master/resources)目录进行下载。
### 6.1 读取数据 ### 6.1 读取数据
读取全表数据示例如下,这里的`help_keyword`是mysql内置的字典表只有`help_keyword_id``name`两个字段。 读取全表数据示例如下,这里的`help_keyword`是mysql内置的字典表只有`help_keyword_id``name`两个字段。