2-Storm集群安装(伪分布式)

基础环境:百度网盘,提取码:NIIT –来自百度网盘超级会员V4的分享) Linux: CentOS 7 JDK: 1.8 Hadoop: 2.7.3 HBase: 1.2.4 Hive: 1.2.2 Storm版本选择: 2.1.0 参考文档:http://storm.apachecn.org/#/docs/25?id=%e8%ae%be%e7%bd%aestorm%e9%9b%86%e7%be%a4 安装ZooKeeper集群 Storm 使用 Zookee... ... [查看更多]

基础环境:百度网盘,提取码:NIIT –来自百度网盘超级会员V4的分享) Linux: CentOS 7 JDK: 1.8 Hadoop: 2.7.3 HBase: 1.2.4 Hive: 1.2.2 Storm版本选择: 2.1.0 参考文档:http://storm.apachecn.org/#/docs/25?id=%e8%ae%be%e7%bd%aestorm%e9%9b%86%e7%be%a4 安装ZooKeeper集群 Storm 使用 Zookee... ... [查看更多]

Views: 883

1- 初识Storm

什么是Storm? Storm为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时处理消息并更新数据库。这是管理队列及工作者集群的另一种方式。 Storm也可被用于“连续计算”(continuous computation),对数据流做连续查询,在计算时就将结果以流的形式输出给用户。它还可被用于“分布式RPC”,以并行的方式计算。 Storm可以方便地在一个计算机集群中编写与扩展复杂的实时计算,Storm用于实时处理,就好比 Hadoop 用于批处理。Storm保证每个... ... [查看更多]

什么是Storm? Storm为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时处理消息并更新数据库。这是管理队列及工作者集群的另一种方式。 Storm也可被用于“连续计算”(continuous computation),对数据流做连续查询,在计算时就将结果以流的形式输出给用户。它还可被用于“分布式RPC”,以并行的方式计算。 Storm可以方便地在一个计算机集群中编写与扩展复杂的实时计算,Storm用于实时处理,就好比 Hadoop 用于批处理。Storm保证每个... ... [查看更多]

Views: 243

Spark RDD 实战案例

IDEA 创建基于Maven的Spark项目 三台虚拟机搭建的集群 启动集成如下: 本地环境由于需要打包放到虚拟机运行,因此scala版本需要和虚拟机中编译spark所用的scala的版本一致。如何知道虚拟机中spark是用的什么版本scala编译的呢?可以进入虚拟机的spark-shell查看: 可见2.4.8并不是官网所说的使用scala2.12,实际上是2.11 接下来使用IDEA创建一个MAVEN项目,使用scala模板 配置项目名称 配置有效的maven环境 修改... ... [查看更多]

IDEA 创建基于Maven的Spark项目 三台虚拟机搭建的集群 启动集成如下: ------------ hadoop100 ------------ 26369 Master 2514 QuorumPeerMain 2898 Kafka 29011 SparkSubmit 30643 HRegionServer 3493 JobHistoryServer 3573 NodeManager 3065 NameNode 30476 HMaster 31036 Jps 28927 S... ... [查看更多]

Views: 79

Spark核心源码分析

01 Spark集群启动原理 Spark集群启动时,会在当前节点(脚本执行节点)上启动Master,在配置文件conf/slave中指定的每个节点上启动一个Worker。而Spark集群是通过脚本启动的。 查看启动脚本的内容: 内容: 从启动脚本的内容和注释可以看出,start-all.sh脚本主要做了四件事: (1)检查并设置环境变量 (2)加载Spark配置 Spark配置的加载,使用了脚本文件sbin/spark-config.sh。 (3)启动Master进程 Maste... ... [查看更多]

01 Spark集群启动原理 Spark集群启动时,会在当前节点(脚本执行节点)上启动Master,在配置文件conf/slave中指定的每个节点上启动一个Worker。而Spark集群是通过脚本启动的。 查看启动脚本的内容: $ cat sbin/start-all.sh 内容: #!/usr/bin/env bash #启动所有spark守护进程 #在此节点上启动Master #在conf/slave中指定的每个节点上启动一个Worker  #如果SPARK_HOME环境变量为空... ... [查看更多]

Views: 86

Spark RDD弹性分布式数据集

01 什么是RDD Spark提供了一种对数据的核心抽象,称为弹性分布式数据集(Resilient Distributed Dataset,简称RDD)。这个数据集的全部或部分可以缓存在内存中,并且可以在多次计算时重用。RDD其实就是一个分布在多个节点上的数据集合。 RDD的弹性主要是指:当内存不够时,数据可以持久化到磁盘,并且RDD具有高效的容错能力。分布式数据集是指:一个数据集存储在不同的节点上,每个节点存储数据集的一部分。 例如,将数据集(hello,world,scala,s... ... [查看更多]

01 什么是RDD Spark提供了一种对数据的核心抽象,称为弹性分布式数据集(Resilient Distributed Dataset,简称RDD)。这个数据集的全部或部分可以缓存在内存中,并且可以在多次计算时重用。RDD其实就是一个分布在多个节点上的数据集合。 RDD的弹性主要是指:当内存不够时,数据可以持久化到磁盘,并且RDD具有高效的容错能力。分布式数据集是指:一个数据集存储在不同的节点上,每个节点存储数据集的一部分。 例如,将数据集(hello,world,scala,s... ... [查看更多]

Views: 74