diff --git a/notes/Spark_Structured_API的基本使用.md b/notes/Spark_Structured_API的基本使用.md index 79d4cb3..64281aa 100644 --- a/notes/Spark_Structured_API的基本使用.md +++ b/notes/Spark_Structured_API的基本使用.md @@ -69,7 +69,7 @@ caseClassDS.show() ### 1.3 由RDD创建DataFrame -Spark支持两种方式把RDD转换为DataFrame,分别是使用反射推断和指定Schema转换。 +Spark支持两种方式把RDD转换为DataFrame,分别是使用反射推断和指定Schema转换: #### 1. 使用反射推断 @@ -241,4 +241,4 @@ spark.sql("SELECT ename,job FROM global_temp.gemp").show() ## 参考资料 -[Spark SQL, DataFrames and Datasets Guide > Getting Started](https://spark.apache.org/docs/latest/sql-getting-started.html) \ No newline at end of file +[Spark SQL, DataFrames and Datasets Guide > Getting Started](https://spark.apache.org/docs/latest/sql-getting-started.html)