Phoenix介绍
1.什么是Phoenix
Phoenix是一个HBase的开源SQL引擎。你可以使用标准的JDBC API代替HBase客户端API来创建表,插入数据,查询你的HBase数据。
2.Phoenix底层原理
Phoenix框架将命令行上键入的sql语句翻译成hbase指令,然后hbase用翻译好的指令去操作集群,执行完之后给客户端反馈结果。
3.安装部署
- 需要先安装好hbase集群,phoenix只是一个工具,只需要在一台机器上安装就可以了,这里我们选择node02服务器来进行安装一台即可
1、下载安装包
-
从对应的地址下载:
http://www.apache.org/dyn/closer.lua/phoenix/phoenix-5.1.1/phoenix-hbase-2.2-5.1.1-bin.tar.gz
-
这里我们使用的是
- phoenix-hbase-2.2-5.1.1-bin.tar.gz
2、上传解压
- 将安装包上传到node02服务器的/kkb/soft路径下,然后进行解压
1 2 |
cd /kkb/soft/ tar -zxf phoenix-hbase-2.2-5.1.1-bin.tar.gz -C /kkb/install/ |
3.安装
1 2 |
cd /kkb/install/phoenix-hbase-2.2-5.1.1-bin cp -a phoenix-server-hbase-2.2-5.1.1.jar ../hbase-2.2.6/lib/ |
1 |
mv bin/hbase-site.xml bin/hbase-site.xml.init |
1 2 |
cp $HBASE_HOME/conf/hbase-site.xml ./bin cp $HADOOP_HOME/etc/hadoop/hdfs-site.xml ./bin |
4.配置环境变量
1 |
sudo vim /etc/profile |
1 2 3 4 |
#phoenix export PHOENIX_HOME=/kkb/install/phoenix-hbase-2.2-5.1.1-bin export PHOENIX_CLASSPATH=$PHOENIX_HOME export PATH=$PATH:$PHOENIX_HOME/bin |
1 |
source /etc/profile |
5.重启hbase集群
-
记得要先启动hadoop集群、zookeeper集群
-
==node01执行==以下命令来重启hbase的集群
1 2 3 |
cd /kkb/install/hbase-2.2.6 bin/start-hbase.sh bin/stop-hbase.sh |
4、验证是否成功
-
1、在phoenix/bin下输入命令, 进入到命令行,接下来就可以操作了
==node02执行==以下命令,进入phoenix客户端
12cd /kkb/install/phoenix-hbase-2.2-5.1.1-bin/bin/sqlline.py node02:2181
5、Phoenix使用
1、 批处理方式
- 1、node02执行以下命令创建user_phoenix.sql文件
- 内容如下
1 2 3 4 5 |
mkdir -p /kkb/install/phoenixsql cd /kkb/install/phoenixsql/ vim user_phoenix.sql create table if not exists user_phoenix (state varchar(10) NOT NULL, city varchar(20) NOT NULL, population BIGINT CONSTRAINT my_pk PRIMARY KEY (state, city)); |
- 2、node02执行以下命令,创建user_phoenix.csv数据文件
1 2 3 4 5 6 7 8 9 10 11 12 13 |
cd /kkb/install/phoenixsql/ vim user_phoenix.csv NY,New York,8143197 CA,Los Angeles,3844829 IL,Chicago,2842518 TX,Houston,2016582 PA,Philadelphia,1463281 AZ,Phoenix,1461575 TX,San Antonio,1256509 CA,San Diego,1255540 TX,Dallas,1213825 CA,San Jose,912332 |
- 3、创建user_phoenix_query.sql文件
1 2 3 4 |
cd /kkb/install/phoenixsql vim user_phoenix_query.sql select state as "userState",count(city) as "City Count",sum(population) as "Population Sum" FROM user_phoenix GROUP BY state; |
- 4、执行sql语句
1 2 3 |
cd /kkb/install/phoenixsql /kkb/install/phoenix-hbase-2.2-5.1.1-bin/bin/psql.py node01:2181 user_phoenix.sql user_phoenix.csv user_phoenix_query.sql |
2、 命令行方式
- 执行命令
1 2 |
cd /kkb/install/phoenix-hbase-2.2-5.1.1-bin/ bin/sqlline.py node02:2181 |
- 退出命令行方式,phoenix的命令都需要一个感叹号
1 |
!quit |
- 查看phoenix的帮助文档,显示所有命令
1 |
0: jdbc:phoenix:node02:2181> !help |
2.1表的映射
-
1、建立employee的映射表
进入hbase客户端,创建一个普通表employee,并且有两个列族 company 和family
node01执行以下以下命令进入hbase 的shell客户端123cd /kkb/install/hbase-2.2.6/bin/hbase shellhbase(main):001:0> create 'employee','company','family' -
2、数据准备
12345678put 'employee','row1','company:name','ted'put 'employee','row1','company:position','worker'put 'employee','row1','family:tel','13600912345'put 'employee','row1','family:age','18'put 'employee','row2','company:name','michael'put 'employee','row2','company:position','manager'put 'employee','row2','family:tel','1894225698'put 'employee','row2','family:age','20' -
3、建立hbase到phoenix的映射表
node02进入到phoenix的客户端,然后创建映射表
1234cd /kkb/install/phoenix-hbase-2.2-5.1.1-binbin/sqlline.py node02:2181CREATE TABLE IF NOT EXISTS "employee" ("no" VARCHAR(10) NOT NULL PRIMARY KEY, "company"."name" VARCHAR(30),"company"."position" VARCHAR(20), "family"."tel" VARCHAR(20), "family"."age" VARCHAR(20)) column_encoded_bytes=0;说明
在建立映射表之前要说明的是,Phoenix是大小写敏感的,并且所有命令都是大写
如果你建的表名没有用双引号括起来,那么无论你输入的是大写还是小写,建立出来的表名都是大写的
如果你需要建立出同时包含大写和小写的表名和字段名,请把表名或者字段名用双引号括起来。
-
4、查询映射表数据
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
0: jdbc:phoenix:node1:2181> select * from "employee"; +-------+----------+-----------+--------------+------+ | no | name | position | tel | age | +-------+----------+-----------+--------------+------+ | row1 | ted | worker | 13600912345 | 18 | | row2 | michael | manager | 1894225698 | 20 | +-------+----------+-----------+--------------+------+ 0: jdbc:phoenix:node01:2181> select * from "employee" where "tel" = '13600912345'; +-------+-------+-----------+--------------+------+ | no | name | position | tel | age | +-------+-------+-----------+--------------+------+ | row1 | ted | worker | 13600912345 | 18 | +-------+-------+-----------+--------------+------+ |
3.JDBC
- 创建maven工程并导入jar包
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 |
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <parent> <artifactId>XZK</artifactId> <groupId>org.example</groupId> <version>1.0-SNAPSHOT</version> </parent> <modelVersion>4.0.0</modelVersion> <artifactId>phoenixDemo</artifactId> <dependencies> <dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-client</artifactId> <version>2.2.2</version> </dependency> <dependency> <groupId>org.apache.phoenix</groupId> <artifactId>phoenix-core</artifactId> <version>5.0.0-HBase-2.0</version> </dependency> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>4.12</version> </dependency> <dependency> <groupId>org.testng</groupId> <artifactId>testng</artifactId> <version>6.14.3</version> </dependency> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>4.13.1</version> <scope>test</scope> </dependency> </dependencies> <build> <plugins> <!-- 限制jdk版本插件 --> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-compiler-plugin</artifactId> <version>3.0</version> <configuration> <source>1.8</source> <target>1.8</target> <encoding>UTF-8</encoding> </configuration> </plugin> </plugins> </build> </project> |
- 代码开发
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
import org.junit.Before; import org.junit.Test; import java.sql.*; public class PhoenixSearch { /** * 定义phoenix的url地址 * connection * 构建Statement对象 * 定义查询的sql语句,一定注意大小写 * 构建好的对象执行sql语句 */ private Statement statement; private ResultSet rs; private Connection connection; @Before public void init() throws SQLException { //定义phoenix的url地址 String url = "jdbc:phoenix:node02:2181"; // connection connection = DriverManager.getConnection(url); //构建Statement对象 statement = connection.createStatement(); } @Test public void queryTable() throws SQLException { //定义查询的sql语句,一定注意大小写 String sql="select * from USER_PHOENIX"; //执行sql语句 try { rs=statement.executeQuery(sql); while(rs.next()){ System.out.println("city:"+rs.getString("city")); System.out.println("POPULATION :"+rs.getString("POPULATION")); System.out.println("STATE:"+rs.getString("STATE")); System.out.println("-------------------------"); } } catch (SQLException e) { e.printStackTrace(); } finally { if (connection != null) { connection.close(); } } } } |
6.Phoenix构建二级索引
1、为什么需要用二级索引?
-
对于HBase而言,如果想精确地定位到某行记录,唯一的办法是通过rowkey来查询。如果不通过rowkey来查找数据,就必须逐行地比较每一列的值,即全表扫瞄。
-
对于较大的表,全表扫描的代价是不可接受的。但是,很多情况下,需要从多个角度查询数据。
- 例如,在定位某个人的时候,可以通过姓名、身份证号、学籍号等不同的角度来查询
- 要想把这么多角度的数据都放到rowkey中几乎不可能(业务的灵活性不允许,对rowkey长度的要求也不允许)。
- 所以需要secondary index(二级索引)来完成这件事。secondary index的原理很简单,但是如果自己维护的话则会麻烦一些。
- 现在,Phoenix已经提供了对HBase secondary index的支持。
2、Phoenix Global Indexing And Local Indexing
2.1 Global Indexing
- Global indexing,全局索引,适用于读多写少的业务场景。
- 使用Global indexing在写数据的时候开销很大,因为所有对数据表的更新操作(DELETE, UPSERT VALUES and UPSERT SELECT),都会引起索引表的更新,而索引表是分布在不同的数据节点上的,跨节点的数据传输带来了较大的性能消耗。
- 在读数据的时候Phoenix会选择索引表来降低查询消耗的时间。
- 在默认情况下如果想查询的字段不是索引字段的话索引表不会被使用,也就是说不会带来查询速度的提升。
2.2 Local Indexing
- Local indexing,本地索引,适用于写操作频繁以及空间受限制的场景。
- 与Global indexing一样,Phoenix会自动判定在进行查询的时候是否使用索引。
- 使用Local indexing时,索引数据和数据表的数据存放在相同的服务器中,这样避免了在写操作的时候往不同服务器的索引表中写索引带来的额外开销。
- 使用Local indexing的时候即使查询的字段不是索引字段索引表也会被使用,这会带来查询速度的提升,这点跟Global indexing不同。对于Local Indexing,一个数据表的所有索引数据都存储在一个单一的独立的可共享的表中。
3、Immutable index And Mutable index
3.1 immutable index
- immutable index,不可变索引,适用于数据==只增加不更新并且按照时间先后顺序存储==(time-series data)的场景,如保存日志数据或者事件数据等。
- 不可变索引的存储方式是write one,append only。
- 当在Phoenix使用create table语句时指定IMMUTABLE_ROWS = true表示该表上创建的索引将被设置为不可变索引。
- 不可变索引分为Global immutable index和Local immutable index两种。
- Phoenix默认情况下如果在create table时不指定IMMUTABLE_ROW = true时,表示该表为mutable。
3.2 mutable index
- mutable index,可变索引,适用于数据有增删改的场景。
- Phoenix默认情况创建的索引都是可变索引,除非在create table的时候显式地指定IMMUTABLE_ROWS = true。
- 可变索引同样分为Global mutable index和Local mutable index两种。
4、配置HBase支持Phoenix二级索引
4.1 修改配置文件
- 如果要启用phoenix的二级索引功能,需要修改配置文件hbase-site.xml
- 注意:
- vim hbase-site.xml
1 2 3 4 5 6 7 8 9 10 11 12 13 |
<!-- 添加配置 --> <property> <name>hbase.regionserver.wal.codec</name> <value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value> </property> <property> <name>hbase.region.server.rpc.scheduler.factory.class</name> <value>org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory</value> </property> <property> <name>hbase.rpc.controllerfactory.class</name> <value>org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory</value> </property> |
4.2 重启hbase
- 完成上述修改后重启hbase集群使配置生效。
5、实战
5.1 在phoenix中创建表
- 首先,在phoenix中创建一个user table
- node02执行以下命令,进入phoenix客户端,并创建表
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
cd /kkb/install/phoenix-hbase-2.2-5.1.1-bin/ bin/sqlline.py node02:2181 create table user ( "session_id" varchar(100) not null primary key, "f"."cookie_id" varchar(100), "f"."visit_time" varchar(100), "f"."user_id" varchar(100), "f"."age" varchar(100), "f"."sex" varchar(100), "f"."visit_url" varchar(100), "f"."visit_os" varchar(100), "f"."browser_name" varchar(100), "f"."visit_ip" varchar(100), "f"."province" varchar(100), "f"."city" varchar(100), "f"."page_id" varchar(100), "f"."goods_id" varchar(100), "f"."shop_id" varchar(100)) column_encoded_bytes=0; |
5.2 导入测试数据
- 将课件当中的user50w.csv 这个文件上传到node02的/kkb/install/phoenixsql 这个路径下
该CSV文件中有50万条记录 - node02执行以下命令,导入50W的测试数据
1 2 |
cd /kkb/install/phoenix-hbase-2.2-5.1.1-bin/ bin/psql.py -t USER node01:2181 /kkb/install/phoenixsql/user50w.csv |
5.3 Global Indexing的二级索引测试
5.3.1 正常查询一条数据所需的时间
- 在为表USER创建secondary index之前,先看看查询一条数据所需的时间
在node02服务器,进入phoenix的客户端,然后执行以下sql语句,查询数据,查看耗费时间
1 2 3 4 |
cd /kkb/install/phoenix-hbase-2.2-5.1.1-bin bin/sqlline.py node01:2181 select * from user where "cookie_id" = '99738fd1-2084-44e9'; |
可以看到,对名为cookie_id的列进行按值查询需要6秒左右。
我们可以通过explain来查看执行计划
EXPLAIN(语句的执行逻辑及计划):
1 |
explain select * from user where "cookie_id" = '99738fd1-2084-44e9'; |
由此看出先进行了全表扫描再通过过滤器来筛选出目标数据,显示这种查询方式效率是很低的。
5.3.2 给表USER创建基于Global Indexing的二级索引
- 进入到phoenix的客户端,然后执行以下命令创建索引
- 在cookie_id列上面创建二级索引:
1 2 3 4 |
0: jdbc:phoenix:node01:2181> create index USER_COOKIE_ID_INDEX on USER ("f"."cookie_id"); -- 查看当前所有表会发现多一张USER_COOKIE_ID_INDEX索引表,查询该表数据。 0: jdbc:phoenix:node01:2181> select * from USER_COOKIE_ID_INDEX limit 5; |
-
再次执行查询"cookie_id"=’99738fd1-2084-44e9’的数据记录
1select "cookie_id" from user where "cookie_id" = '99738fd1-2084-44e9';此时:查询速度由10秒左右减少到了毫秒级别。
注意:select所带的字段必须包含在覆盖索引内
EXPLAIN(语句的执行逻辑及计划):
1explain select "cookie_id" from user where "cookie_id"='99738fd1-2084-44e9';可以看到使用到了创建的索引USER_COOKIE_ID_INDEX。
5.3.3 以下查询不会用到索引表
- 虽然cookie_id是索引字段,但age不是索引字段,所以不会使用到索引
1 |
select "cookie_id","age" from user where "cookie_id"='99738fd1-2084-44e9'; |
- 也可以通过EXPLAIN查询语句的执行逻辑及计划
1 |
EXPLAIN select "cookie_id","age" from user where "cookie_id"='99738fd1-2084-44e9'; |
- 同理要查询的字段不是索引字段,也不会使用到索引表。
1 |
select "sex" from user where "cookie_id"='99738fd1-2084-44e9'; |
5.4 Local Indexing的二级索引测试
5.4.1 正常查询一条数据所需的时间
- 在为表USER创建secondary index之前,先看看查询一条数据所需的时间
1 |
select * from user where "user_id"='371e963d-c-487065'; |
- 可以看到,对名为user_id的列进行按值查询需要3秒左右。
- EXPLAIN(语句的执行逻辑及计划):
1 |
explain select * from user where "user_id"='371e963d-c-487065'; |
- 由此知道先进行了全表扫描再通过过滤器来筛选出目标数据,显示这种查询方式效率是很低的。
5.4.2 给表USER创建基于Local Indexing的二级索引
- 在user_id列上面创建二级索引:
1 |
create local index USER_USER_ID_INDEX on USER ("f"."user_id"); |
- 查看当前所有表会发现多一张USER_USER_ID_INDEX索引表,查询该表数据。
- 再次执行查询"user_id"=’371e963d-c-487065’的数据记录
1 |
select * from user where "user_id"='371e963d-c-487065'; |
- 可以看到,对名为user_id的列进行按值查询需要0.7秒左右。
- EXPLAIN(语句的执行逻辑及计划):
1 |
explain select * from user where "user_id"='371e963d-c-487065'; |
查看执行计划,没有执行全表扫描,效率更高了
此时:查询速度由3秒左右减少到了毫秒级别。
那如果查询的字段不包含在索引表中,又如何呢?
1 |
select "user_id","age","sex" from user where "user_id"='371e963d-c-487065'; |
EXPLAIN(语句的执行逻辑及计划):
1 |
explain select "user_id","age","sex" from user where "user_id"='371e963d-c-487065'; |
可以看到使用到了创建的索引USER_USER_ID_INDEX.
5.5 如何确保query查询使用Index
- 要想让一个查询使用index,有三种方式实现。
5.5.1 创建 covered index
- 如果在某次查询中,查询项或者查询条件中包含除被索引列之外的列(主键MY_PK除外)。
- 默认情况下,该查询会触发full table scan(全表扫描),但是使用covered index则可以避免全表扫描。创建包含某个字段的覆盖索引,创建方式如下:
1 |
create index USER_COOKIE_ID_AGE_INDEX on USER ("f"."cookie_id") include("f"."age"); |
- 查看当前所有表会发现多一张USER_COOKIE_ID_AGE_INDEX索引表,查询该表数据。
1 |
select * from USER_COOKIE_ID_AGE_INDEX limit 5; |
- 查询数据
1 2 |
select "age" from user where "cookie_id"='99738fd1-2084-44e9'; select "age","sex" from user where "cookie_id"='99738fd1-2084-44e9'; |
5.5.2 在查询中提示其使用index
- 在select和column_name之间加上
/*+ Index(<表名> <index表名>)*/
,通过这种方式强制使用索引。
1 |
select /*+ index(user,USER_COOKIE_ID_AGE_INDEX) */ "age" from user where "cookie_id"='99738fd1-2084-44e9'; |
如果age是索引字段,那么就会直接从索引表中查询
如果age不是索引字段,那么将会进行全表扫描,所以当用户明确知道表中数据较少且符合检索条件时才适用,此时的性能才是最佳的。
5.5.3 使用本地索引 (创建Local Indexing 索引)
- 详细见上面
5.6 索引重建
- Phoenix的索引重建是把索引表清空后重新装配数据。
1 |
alter index USER_COOKIE_ID_INDEX on user rebuild; |
5.7 删除索引
- 删除某个表的某张索引:
语法 drop index 索引名称 on 表名
例如:
1 |
drop index USER_COOKIE_ID_INDEX on user; |
如果表中的一个索引列被删除,则索引也将被自动删除
如果删除的是覆盖索引上的列,则此列将从覆盖索引中被自动删除。
6、索引性能调优
- 一般来说,索引已经很快了,不需要特别的优化。
- 这里也提供了一些方法,让你在面对特定的环境和负载的时候可以进行一些调优。下面的这些需要在hbase-site.xml文件中设置,针对所有的服务器。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 |
1. index.builder.threads.max 创建索引时,使用的最大线程数。 默认值: 10。 2. index.builder.threads.keepalivetime 创建索引的创建线程池中线程的存活时间,单位:秒。 默认值: 60 3. index.writer.threads.max 写索引表数据的写线程池的最大线程数。 更新索引表可以用的最大线程数,也就是同时可以更新多少张索引表,数量最好和索引表的数量一致。 默认值: 10 4. index.writer.threads.keepalivetime 索引写线程池中,线程的存活时间,单位:秒。 默认值:60 5. hbase.htable.threads.max 每一张索引表可用于写的线程数。 默认值: 2,147,483,647 6. hbase.htable.threads.keepalivetime 索引表线程池中线程的存活时间,单位:秒。 默认值: 60 7. index.tablefactory.cache.size 允许缓存的索引表的数量。 增加此值,可以在写索引表时不用每次都去重复的创建htable,这个值越大,内存消耗越多。 默认值: 10 8. org.apache.phoenix.regionserver.index.handler.count 处理全局索引写请求时,可以使用的线程数。 默认值: 30 |
Views: 19