From f1c74d38a21c306f7f503dbf916873e2f530bbf4 Mon Sep 17 00:00:00 2001
From: heibaiying <31504331+heibaiying@users.noreply.github.com>
Date: Sun, 19 May 2019 21:36:01 +0800
Subject: [PATCH 1/3] =?UTF-8?q?Update=20Spark=E9=83=A8=E7=BD=B2=E6=A8=A1?=
=?UTF-8?q?=E5=BC=8F=E4=B8=8E=E4=BD=9C=E4=B8=9A=E6=8F=90=E4=BA=A4.md?=
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8
Content-Transfer-Encoding: 8bit
---
notes/Spark部署模式与作业提交.md | 3 ++-
1 file changed, 2 insertions(+), 1 deletion(-)
diff --git a/notes/Spark部署模式与作业提交.md b/notes/Spark部署模式与作业提交.md
index 33fe136..eb1462d 100644
--- a/notes/Spark部署模式与作业提交.md
+++ b/notes/Spark部署模式与作业提交.md
@@ -12,7 +12,7 @@
### 1.1 spark-submit
-Spark所有模式均通过使用` spark-submit`提交作业,其命令格式如下:
+Spark所有模式均通过使用`spark-submit`提交作业,其命令格式如下:
```shell
./bin/spark-submit \
@@ -174,6 +174,7 @@ check your cluster UI to ensure that workers are registered and have sufficient
+
关于Master和Woker节点的所有可选配置如下,可以在`spark-env.sh`进行对应的配置:
| Environment Variable(环境变量) | Meaning(含义) |
From 86499fd88515eff6c691b084f130637661618b8d Mon Sep 17 00:00:00 2001
From: heibaiying <31504331+heibaiying@users.noreply.github.com>
Date: Sun, 19 May 2019 21:38:32 +0800
Subject: [PATCH 2/3] =?UTF-8?q?Update=20Spark=E9=83=A8=E7=BD=B2=E6=A8=A1?=
=?UTF-8?q?=E5=BC=8F=E4=B8=8E=E4=BD=9C=E4=B8=9A=E6=8F=90=E4=BA=A4.md?=
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8
Content-Transfer-Encoding: 8bit
---
notes/Spark部署模式与作业提交.md | 5 ++---
1 file changed, 2 insertions(+), 3 deletions(-)
diff --git a/notes/Spark部署模式与作业提交.md b/notes/Spark部署模式与作业提交.md
index eb1462d..e7ebf83 100644
--- a/notes/Spark部署模式与作业提交.md
+++ b/notes/Spark部署模式与作业提交.md
@@ -172,10 +172,9 @@ check your cluster UI to ensure that workers are registered and have sufficient
这时候可以查看Web UI,我这里是内存空间不足:提交命令中要求作业的`executor-memory`是2G,但是实际的工作节点的`Memory`只有1G,这时候你可以修改`--executor-memory`,也可以修改 Woker 的`Memory`,其默认值为主机所有可用内存值减去1G。
-
+
-
-关于Master和Woker节点的所有可选配置如下,可以在`spark-env.sh`进行对应的配置:
+关于Master和Woker节点的所有可选配置如下,可以在`spark-env.sh`中进行对应的配置:
| Environment Variable(环境变量) | Meaning(含义) |
| -------------------------------- | ------------------------------------------------------------ |
From 48f4db8a6d53640c065645e231de4910a0d4517f Mon Sep 17 00:00:00 2001
From: heibaiying <31504331+heibaiying@users.noreply.github.com>
Date: Sun, 19 May 2019 21:40:18 +0800
Subject: [PATCH 3/3] =?UTF-8?q?Update=20Spark=E7=AE=80=E4=BB=8B.md?=
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8
Content-Transfer-Encoding: 8bit
---
notes/Spark简介.md | 31 ++++++++++++++++---------------
1 file changed, 16 insertions(+), 15 deletions(-)
diff --git a/notes/Spark简介.md b/notes/Spark简介.md
index dc1d127..20baed8 100644
--- a/notes/Spark简介.md
+++ b/notes/Spark简介.md
@@ -1,16 +1,17 @@
# Spark简介
-
-
+
+
+
## 一、简介
Spark于2009年诞生于加州大学伯克利分校AMPLab。2013年,该项目被捐赠给Apache软件基金会。2014年2月,成为Apache的顶级项目。相对于MapReduce上的批处理计算,Spark可以带来上百倍的性能提升,因此它成为继MapReduce之后,最为广泛使用的计算框架。
@@ -31,7 +32,7 @@ Spark于2009年诞生于加州大学伯克利分校AMPLab。2013年,该项目
+ 多数据源支持:支持访问HDFS,Alluxio,Cassandra,HBase,Hive以及数百个其他数据源中的数据。
-
+
## 三、集群架构
@@ -56,7 +57,7 @@ Spark于2009年诞生于加州大学伯克利分校AMPLab。2013年,该项目
Spark基于Spark Core扩展了四个核心组件,分别用于满足不同领域的计算需求。
-
+
### 3.1 Spark SQL
@@ -94,4 +95,4 @@ MLlib是Spark的机器学习库。其设计目标是使得机器学习变得简
GraphX是Spark中用于图形计算和图形并行计算的新组件。在高层次上,GraphX通过引入一个新的图形抽象来扩展 RDD:一种具有附加到每个顶点和边缘的属性的定向多重图形。为了支持图计算,GraphX提供了一组基本运算符(如: subgraph,joinVertices 和 aggregateMessages)以及优化后的Pregel API。此外,GraphX 还包括越来越多的图形算法和构建器,以简化图形分析任务。
-##
\ No newline at end of file
+##