MRS +Apache Zeppelin,让数据分析更便捷

网友投稿 380 2022-11-15

MRS +Apache Zeppelin,让数据分析更便捷

摘要:选择轻量化、免运维、低成本的大数据云服务是业界趋势,如果搭建Zeppelin再同步自建一套Hadoop生态成本太高!因此我们通过结合华为云MRS服务构建数据中台。

本文分享自华为云社区《​​MRS大数据平台结合Apache Zeppelin让数据分析更便捷​​》,作者: dullman。

Apache Zeppelin:一款大数据分析和可视化工具,可以让数据分析师在一个基于Web的notebook中,采用不同语言对不同数据源中的数据进行交互式分析,并对结果进行可视化图表的展示。

云服务MRS:华为云提供的一站式大数据平台,包含Hudi、ClickHouse、Spark、Flink、Kafka、Hive、HBase等丰富的大数据组件,完全兼容开源生态。 本文介绍如何搭建Zeppelin并连接Hive、HBase进行简单的数据开发。

为什么写这篇文章?

Zeppelin相关的文章虽然很多,但是都没有与实际大数据平台结合的实践案例指导。Zeppelin的搭建存在不少坑,因此记录下部署中的各个问题,为后人填坑。选择轻量化、免运维、低成本的大数据云服务是业界趋势,如果搭建Zeppelin再同步自建一套Hadoop生态成本太高!因此我们通过结合华为云MRS服务构建数据中台。

环境准备

Apache Zeppelin 0.9.0安装包MRS 3.1.0普通集群 (包含Hive、HBase组件)ECS centos7.6

安装MRS客户端

MRS客户端提供java、python开发环境,也提供开通集群中各组件的环境变量:Hadoop、Hive、HBase、flink等。

参见登录ECS安装​​集群外客户端​​​

安装Zeppelin

使用Xftp等工具导入主机并采用以下命令安装在/opt/zeppelin目录。

tar -zxvf zeppelin-0.9.0-bin-all.tgzmv zeppelin-0.9.0-bin-all /opt/zeppelin

配置Zeppelin环境变量,在profile文件中加入变量

vi /etc/profileexport ZEPPELIN_HOME=/opt/zeppelinexport PATH=ZEPPELIN_HOME/bin:ZEPPELINHOME/bin:PATH

导入环境变量

source /etc/profile

编辑zeppelin-env.sh文件,加入JAVA_HOME,这里需要替换成自己的环境变量

cd /opt/zeppelin/conf/cp zeppelin-env.sh.template zeppelin-env.shsource /opt/hadoopclient/bigdata_envecho “export JAVA_HOME=/opt/hadoopclient/JDK/jdk-8u201”>>zeppelin-env.sh

编辑zeppelin-site.xml文件,将zeppelin.server.port 8080替换成18081(可自定义,也可以不改);将zeppelin.anonymous.allowed参数的true修改为false

cd /opt/zeppelin/confcp zeppelin-site.xml.template zeppelin-site.xmlvi zeppelin-site.xml

zeppelin.server.port 18081 Server port. zeppelin.anonymous.allowed falase Anonymous user allowed by default

编辑shiro.ini文件,新增用户developuser

cp shiro.ini.template shiro.inivi shiro.ini

在[users]下新增用户developuser,密码Huawei@123,权限admin

developuser=Huawei@123, admin

运行Zeppelin(并检查启动参数)

cd /opt/zeppelinbin/zeppelin-daemon.sh start

ps ef | grep zeppelin

关闭防火墙,允许端口18081(此为测试环境,生产环境建议采取更安全措施) systtemctl stop firewalld完成以上配置,并启动成功后,在浏览器中输入地址zeppelin_ip:18081(zeppelin_ip为安装zeppelin的HD客户端IP),即可看到如下界面。

使用developuser登录,就可以基于note进行大数据的交互式开发了!

Zeppelin连接Hive

1、将Zeppelin中jdbc依赖的jar包替换成MRS客户端中Hive/Beeline/lib中的jar包,保证hive Interpreter依赖的Jar包存在

cp -f /opt/Bigdata/client/Hive/Beeline/lib/*.jar /opt/zeppelin/interpreter/jdbc/

2、修改Zeppelin配置,添加Client Hive Url

查询CLIENT_HIVE_URL

source /opt/hadoopclient/bigdata_envecho $CLIENT_HIVE_URI

编辑interpreter.json,位置/usr/zeppelin/conf/interpreter.json,修改JDBC default.url,default.driver.

"jdbc": { "id": "jdbc", "name": "jdbc", "group": "jdbc", "properties": { "default.url": { "name": "default.url", "value": "jdbc:hive2://192.168.1.188:24002,192.168.1.234:24002,192.168.1.241:24002/;serviceDiscoveryMode\u003dzooKeeper;zooKeeperNamespace\u003dhiveserver2", "type": "string", "description": "The URL for JDBC." }, "default.user": { "name": "default.user", "value": "gpadmin", "type": "string", "description": "The JDBC user name" }, "default.password": { "name": "default.password", "value": "", "type": "password", "description": "The JDBC user password" }, "default.driver": { "name": "default.driver", "value": "org.apache.hive.jdbc.HiveDriver", "type": "string", "description": "JDBC Driver Name" }

3、重启zeppelin

bin/zeppelin-daemon.sh restart

4、创建Notebook,选择default interpreter 为jdbc

5、在notebook上使用Hive SQL进行查询

查询数据库%jdbcshow databases;

创建Hive表%jdbccreate external table stu (s_id string,s_name string) row format delimited fields terminated by ‘\t’;

Zeppelin连接HBase

1、将Zeppelin中hbase依赖的jar包替换成MRS客户端中HBase中的jar包,保持jar的一致

先将/opt/zeppelin/interpreter/hbase/目录下原本的Jar包移走

cd /opt/zeppelin/interpreter/hbasemkdir hbase_old_jarmv hbase*.jar hbase_old_jarmv hadoop*.jar hbase_old_jarmv zookeeper-3.4.6.jar hbase_old_jar

再将/opt/hadoopclient/HBase/hbase/lib/下的jar包拷贝至/opt/zeppelin/interpreter/hbase/。

cp -f /opt/hadoopclient/HBase/hbase/lib/*.jar /usr/zeppelin/interpreter/hbase/

2、修改Zeppelin配置

编辑zeppelin-env.sh,加入hbase环境变量

export HBASE_HOME=/opt/hadoopclient/HBase/hbase

编辑interpreter.json,位置/opt/zeppelin/conf/interpreter.json,修改hbase.home

"hbase.home": { "name": "hbase.home", "value": "/opt/hadoopclient/HBase/hbase", "type": "string" }

3、重启zeppelin

bin/zeppelin-daemon.sh restart

4、配置Interpreter

从web界面右上角菜单中Interpreter中进入,配置Interpreter

选择Hbase,修改如下配置,并保存配置。

hbase.home : /opt/client/HBase/hbase

5、创建note进行数据开发

页面选择Notebook →create new note

自定义Note名称,例如hbaseNote,并指定Interpreter为HBase。

%hbasecreate ‘test6’, ‘cf’put ‘test6’, ‘row1’, ‘cf:a’, ‘value1’

若在创建Interpreter未指定default Interpreter,需要在note最前面加上%hbase进行指定。

6、在FusionInsight客户端下查看刚刚通过Zeppelin创建的hbase表test6和数据

其他Hadoop生态组件在云服务MRS上的实践参考

​​使用商业智能软件Superset分析MRS数据之最佳实践​​

​​基于云服务MRS构建DolphinScheduler2调度系统​​

​​开源工作流引擎Azkaban在MRS中的实践​​

​​分布式调度平台Airflow在华为云MRS中的实践​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Java基础知识之CharArrayWriter流的使用
下一篇:光模块DSP内部的光层测试与OSNR测试的区别
相关文章

 发表评论

暂时没有评论,来抢沙发吧~