07 Flume的安装与配置

安装

  1. 下载

    http://flume.apache.org/download.html

    http://archive.apache.org/dist/flume/stable/

    这里使用最新的 apache-flume-1.9.0版本

  2. 解压安装

  3. 改目录名

  4. 配置环境变量,并让环境变量生效

  5. 修改conf/flume-env.sh,配置JDK路径(该文件事先是不存在的,需要复制一份)
    复制:

    编辑文件,并设置如下内容:

  6. 将hadoop-3.1.4安装路径下的依赖的jar软链接到flume-1.9.0/lib下:

测试

  1. 验证

  2. 配置Flume HDFS Sink:
    在flume的conf目录新建一个log2hdfs.conf
    添加如下内容:

    注意

    • a1.sources.r1.spoolDir目录如果不存在需要先创建
    • a1.sinks.k1.hdfs.path目录会自动创建
      • 这里的路径是`hdfs://hadoop100:8020/flume/logs/yy-mm-dd/
      • 也就是每天的数据都会产生滚动日志。
      • 实际应该是按天或者按周、按月来生成滚动日志。
  3. 启动flume

  • 准备

    创建/tmp/flumn-logs, 并分配权限

  • 启动
    执行如下命令进行启动:

  • 测试

  • 到Hadoop的控制台http://hadoop100:9870/查看 hdfs:hadoop100:9870/flume/logs/下有没有数据生成:

    image-20210110175013827

异常: 日志收集失败,报错:

原因: flume/lib/guava-xxx.jar 和 hadoop自带的jar包发生冲突

解决: 将flume/lib下的guava包删除或者改名, 只保留hadoop的版本即可

Views: 117