Spark 下载、安装与配置

文章目录

  • Spark 简介
  • 一,Spark 下载
  • 二,Spark 安装
  • 三,Spark 配置
    • Spark环境配置

Spark 简介

Apache Spark 是一个快速的通用集群计算系统。它提供了Java, Scala, Python ,R 四种编程语言的 API 编程接口和基于 DAG 图执行的优化引擎。它还支持一系列丰富的高级工具:处理结构化数据的 Spark SQL,用于机器学习的 MLlib,控制图、并行图操作和计算的一组算法和工具的集合 GraphX,数据流处理 Spark Streaming。

在这里插入图片描述

一,Spark 下载

1.进入spark官网:https://spark.apache.org/

在这里插入图片描述

2.单击download标签,进入下载页

在这里插入图片描述3.单击 spark-3.3.2-bin-hadoop3.tgz 进入版本下载页

在这里插入图片描述

4.单击链接开始下载

在这里插入图片描述

二,Spark 安装

1.将下载好的spark包上传到centos中

在这里插入图片描述

在这里插入图片描述

2.上传完成后进行解压到/opt目录中,执行命令:tar -zxvf spark-3.3.2-bin-hadoop3.tgz -C /opt

在这里插入图片描述

三,Spark 配置

Spark环境配置

1.执行命令:vi etc/profile

在这里插入图片描述

2.添加如下内容

# Spark 环境变量
export SPARK_HOME=/opt/spark-3.3.2
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

在这里插入图片描述

3.执行 !wq ,保存后退出

4.更新环境变量配置,执行命令:source etc/profile

5.执行命令:spark-shell,检查配置是否成功

在这里插入图片描述

本文来自网络,不代表协通编程立场,如若转载,请注明出处:https://net2asp.com/172390b18e.html