主页 > 知识库 > ol7.7安装部署4节点spark3.0.0分布式集群的详细教程

ol7.7安装部署4节点spark3.0.0分布式集群的详细教程

热门标签:怎么去掉地图标注文字 高德地图标注公司位置需要钱吗 地图标注资源分享注册 北京外呼系统咨询电话 海南人工外呼系统哪家好 廊坊地图标注申请入口 合肥阿里办理400电话号 襄阳外呼增值业务线路解决方案 庆阳外呼系统定制开发

为学习spark,虚拟机中开4台虚拟机安装spark3.0.0

底层hadoop集群已经安装好,见ol7.7安装部署4节点hadoop 3.2.1分布式集群学习环境

首先,去http://spark.apache.org/downloads.html下载对应安装包

解压

[hadoop@master ~]$ sudo tar -zxf spark-3.0.0-bin-without-hadoop.tgz -C /usr/local
[hadoop@master ~]$ cd /usr/local
[hadoop@master /usr/local]$ sudo mv ./spark-3.0.0-bin-without-hadoop/ spark
[hadoop@master /usr/local]$ sudo chown -R hadoop: ./spark

四个节点都添加环境变量

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

配置spark

spark目录中的conf目录下cp ./conf/spark-env.sh.template ./conf/spark-env.sh后面添加

export SPARK_MASTER_IP=192.168.168.11
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_LOCAL_DIRS=/usr/local/hadoop
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

然后配置work节点,cp ./conf/slaves.template ./conf/slaves修改为

master
slave1
slave2
slave3

写死JAVA_HOME,sbin/spark-config.sh最后添加

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_191

复制spark目录到其他节点

sudo scp -r /usr/local/spark/ slave1:/usr/local/
sudo scp -r /usr/local/spark/ slave2:/usr/local/
sudo scp -r /usr/local/spark/ slave3:/usr/local/
sudo chown -R hadoop ./spark/

...

启动集群

先启动hadoop集群/usr/local/hadoop/sbin/start-all.sh

然后启动spark集群

通过master8080端口监控

完成安装

到此这篇关于ol7.7安装部署4节点spark3.0.0分布式集群的详细教程的文章就介绍到这了,更多相关ol7.7安装部署spark集群内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
  • Spark学习笔记 (二)Spark2.3 HA集群的分布式安装图文详解
  • Python搭建Spark分布式集群环境
  • 使用docker快速搭建Spark集群的方法教程

标签:株洲 台州 绵阳 平顶山 鹤岗 商丘 哈密 镇江

巨人网络通讯声明:本文标题《ol7.7安装部署4节点spark3.0.0分布式集群的详细教程》,本文关键词  ol7.7,安装,部署,4节点,spark3.0.0,;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《ol7.7安装部署4节点spark3.0.0分布式集群的详细教程》相关的同类信息!
  • 本页收集关于ol7.7安装部署4节点spark3.0.0分布式集群的详细教程的相关信息资讯供网民参考!
  • 推荐文章