欢迎回家
我们一直在改变

Spark 安装

开始使用Spark的第一步是安装。 让我们在Linux系统上安装Apache Spark 2.1.0(Ubuntu系统)。

安装
1.安装Spark的先决条件是安装Java和Scala。
2.如果未使用以下命令安装Java,请下载Java。

sudo apt-get install python-software-properties
sudo apt-add-repository ppa:webupd8team/java
sudo apt-get update
sudo apt-get install oracle-java8-installer

3.从Scala Lang官方(http://www.scala-lang.org/)页面下载最新的Scala版本。 安装完成后,在/ .bashrc文件中设置scala路径,如下所示。

export SCALA_HOME=Path_Where_Scala_File_Is_Located
export PATH=$SCALA_HOME/bin:PATH

4.从Apache Spark下载页面(http://spark.apache.org/downloads.html)下载Spark 2.1.0。 您也可以选择下载以前的版本。
5.使用以下命令提取Spark tar。

tar -xvf spark-2.1.0-bin-hadoop2.7.tgz

6.在/ .bashrc文件中设置Spark_Path。

export SPARK_HOME=Path_Where_Spark_Is_Installed
export PATH=$PATH:$SPARK_HOME/bin

原文链接:https://www.aboutyun.com/forum.php?mod=viewthread&tid=24883

赞(0)
未经允许不得转载:91coding » Spark 安装
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!

立即登录   注册

91CODING 小白轻松上手,大牛稳健进步

关于我们免责声明