小坨的Spark分布式集群环境搭建小笔记

上传:weixin_68664 浏览: 9 推荐: 0 文件:PDF 大小:110.24KB 上传时间:2021-01-15 16:32:37 版权申诉
文章目录写在前面搭建好Hadoop集群环境安装Spark(Master节点上操作)配置环境变量(Master节点上操作)Spark配置(Master节点上操作)配置Worker节点启动Spark集群(在Master节点上操作)关闭Spark集群(在Master节点上操作) 写在前面 这里采用2台机器(节点)作为实例来演示如何搭建Spark集群,其中1台机器作为Master节点,另外一台机器作为Slave1节点(即作为Worker节点)。 集群环境 Centos6.4 Hadoop2.7.7 java 1.8 (请确保java版本在1.8以上,否则会踩坑,反正我后面踩了) 搭建好Hadoop集
上传资源
用户评论

banana15838 2019-04-09 14:05:36

不错的学习资料,学习中

revolt43029 2019-04-09 14:05:36

还可以,能用