From 8a9d58e06887d1346219629ffe4d15b4f0d6b903 Mon Sep 17 00:00:00 2001 From: heibaiying <31504331+heibaiying@users.noreply.github.com> Date: Tue, 4 Jun 2019 16:32:48 +0800 Subject: [PATCH] =?UTF-8?q?Update=20Spark=5FStructured=5FAPI=E7=9A=84?= =?UTF-8?q?=E5=9F=BA=E6=9C=AC=E4=BD=BF=E7=94=A8.md?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- notes/Spark_Structured_API的基本使用.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/notes/Spark_Structured_API的基本使用.md b/notes/Spark_Structured_API的基本使用.md index 79d4cb3..64281aa 100644 --- a/notes/Spark_Structured_API的基本使用.md +++ b/notes/Spark_Structured_API的基本使用.md @@ -69,7 +69,7 @@ caseClassDS.show() ### 1.3 由RDD创建DataFrame -Spark支持两种方式把RDD转换为DataFrame,分别是使用反射推断和指定Schema转换。 +Spark支持两种方式把RDD转换为DataFrame,分别是使用反射推断和指定Schema转换: #### 1. 使用反射推断 @@ -241,4 +241,4 @@ spark.sql("SELECT ename,job FROM global_temp.gemp").show() ## 参考资料 -[Spark SQL, DataFrames and Datasets Guide > Getting Started](https://spark.apache.org/docs/latest/sql-getting-started.html) \ No newline at end of file +[Spark SQL, DataFrames and Datasets Guide > Getting Started](https://spark.apache.org/docs/latest/sql-getting-started.html)