Hadoop集群搭建(3.X版本,3节点)

一、课前准备

  1. 准备一台内存最少8G(建议16G)、cpu i7 4核的电脑

二、课堂主题

  1. 安装虚拟化软件VMware
  2. 准备3台linux虚拟机
  3. 搭建3节点zookeeper集群
  4. 搭建3节点的hadoop集群

三、课堂目标

  1. 完成大数据课程课前环境准备

四、知识要点

VMware版本:

VMware建议使用比较新的版本,如VMware 15.5
关于VMware的安装,直接使用安装包一直下一步安装即可,且安装包当中附带破解秘钥,进行破解即可使用

linux版本

linux统一使用centos7.6 64位版本
种子文件下载地址:http://mirrors.aliyun.com/centos/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.torrent

  • 具体实操过程请参考视频

安装hadoop集群时,无论是windows还是mac,都可以参考此文档

3. hadoop集群的安装

  • 安装环境服务部署规划
服务器IP node01 node02 node03
HDFS NameNode
HDFS SecondaryNameNode
HDFS DataNode DataNode DataNode
YARN ResourceManager
YARN NodeManager NodeManager NodeManager
历史日志服务器 JobHistoryServer
第一步:上传压缩包并解压
  • 将我们重新编译之后支持snappy压缩的hadoop包上传到第一台服务器并解压;第一台机器执行以下命令

链接:https://pan.baidu.com/s/1sn946HHw0OyJ7YGsOdCdPQ
提取码:yb61

第二步:查看hadoop支持的压缩方式以及本地库

第一台机器执行以下命令

image-20201027152059863

如果出现openssl为false,那么==所有机器==在线安装openssl即可,执行以下命令,虚拟机联网之后就可以在线进行安装了

第三步:修改配置文件
修改hadoop-env.sh

第一台机器执行以下命令

修改core-site.xml

第一台机器执行以下命令

修改hdfs-site.xml

第一台机器执行以下命令

修改mapred-site.xml

第一台机器执行以下命令

修改yarn-site.xml

第一台机器执行以下命令

修改workers文件

第一台机器执行以下命令

原内容替换为

第四步:创建文件存放目录

第一台机器执行以下命令

node01机器上面创建以下目录

第五步:安装包的分发scp与rsync

在linux当中,用于向远程服务器拷贝文件或者文件夹可以使用scp或者rsync,这两个命令功能类似都是向远程服务器进行拷贝,只不过scp是全量拷贝,rsync可以做到增量拷贝,rsync的效率比scp更高一些

1. 通过scp直接拷贝

scp(secure copy)安全拷贝

可以通过scp进行不同服务器之间的文件或者文件夹的复制

使用语法

用法示例

node01执行以下命令进行拷贝

2. 通过rsync来实现增量拷贝

rsync 远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。

rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

三台机器执行以下命令安装rsync工具

(1) 基本语法

node01执行以下命令同步zk安装包

命令 选项参数 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称

选项参数说明

选项 功能
-a 归档拷贝
-v 显示复制过程

(2)案例实操

(3)把node01机器上的/kkb/soft目录同步到node02服务器的hadooop用户下的/kkb/目录

3. 通过rsync来封装分发脚本

我们可以通过rsync这个命令工具来实现脚本的分发,可以增量的将文件分发到我们所有其他的机器上面去

(1)需求:循环复制文件到所有节点的相同目录下

(2)需求分析:

(a)rsync命令原始拷贝:

(b)期望脚本使用方式:

xsync要同步的文件名称

(c)说明:在/home/hadoop/bin这个目录下存放的脚本,hadoop用户可以在系统任何地方直接执行。

(3)脚本实现

(a)在/home/hadoop目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:

在该文件中编写如下代码

(b)修改脚本 xsync 具有执行权限

(c)调用脚本形式:xsync 文件名称

注意:如果将xsync放到/home/hadoop/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下

第六步:配置hadoop的环境变量

三台机器都要进行配置hadoop的环境变量

三台机器执行以下命令

配置完成之后生效

第七步:格式化集群
  • 要启动 Hadoop 集群,需要启动 HDFS 和 YARN 两个集群。

  • 注意:首次启动HDFS时,必须对其进行格式化操作。本质上是一些清理和准备工作,因为此时的 HDFS 在物理上还是不存在的。格式化操作只有在首次启动的时候需要,以后再也不需要了

  • node01执行一遍即可

  • 或者

  • 下图高亮表示格式化成功;

image-20201019211525368

第八步:集群启动
  • 启动集群有两种方式:
    • ①脚本一键启动;
    • ②单个进程逐个启动
1. 启动HDFS、YARN、Historyserver
  • 如果配置了 etc/hadoop/workers 和 ssh 免密登录,则可以使用程序脚本启动所有Hadoop 两个集群的相关进程,在主节点所设定的机器上执行。

  • 启动集群

  • 主节点node01节点上执行以下命令

  • 停止集群(主节点node01节点上执行):

2. 单个进程逐个启动

3. 一键启动hadoop集群的脚本
  • 为了便于一键启动hadoop集群,我们可以编写shell脚本

  • 在node01服务器的/home/hadoop/bin目录下创建脚本

  • 内容如下

  • 修改脚本权限

第九步:验证集群是否搭建成功
1. 访问web ui界面
  • hdfs集群访问地址

http://192.168.51.100:9870/

  • yarn集群访问地址

http://192.168.51.100:8088

  • jobhistory访问地址:

http://192.168.51.100:19888

  • 若将linux的/etc/hosts文件的如下内容,添加到本机的hosts文件中(==ip地址根据自己的实际情况进行修改==)

  • windows的hosts文件路径是C:\Windows\System32\drivers\etc\hosts

  • mac的hosts文件是/etc/hosts

  • 那么,上边的web ui界面访问地址可以分别写程

    • hdfs集群访问地址

    http://node01:9870/

    • yarn集群访问地址

    http://node01:8088

    • jobhistory访问地址:

    http://node01:19888

2. 所有机器查看进程脚本
  • 我们也可以通过jps在每台机器上面查看进程名称,为了方便我们以后查看进程,我们可以通过脚本一键查看所有机器的进程

  • 在node01服务器的/home/hadoop/bin目录下创建文件xcall

  • 添加以下内容

  • 然后一键查看进程并分发该脚本

  • 各节点应该启动的hadoop进程如下图

image-20200513122314381

3. 运行一个mr例子
  • 任一节点运行pi例子

  • 最后计算出pi的近似值

image-20200522154422389

提醒:如果要关闭电脑时,清一定要按照以下顺序操作,否则集群可能会出问题

  • 关闭hadoop集群

  • 关闭虚拟机

  • 关闭电脑

Views: 121

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注