开源项目丨一文详解一站式大数据平台运维管家 ChengYing 如何部署 Hadoop 集群

视频回放:点击这里

ChengYing 开源项目地址:githubgitee

本期我们带大家回顾一下海洋同学的直播分享《ChengYing 部署 Hadoop 集群实战》

一、Hadoop 集群部署准备

在部署集群前,我们需要做一些部署准备,首先我们需要按照下载 Hadoop 产品包:

● Mysql

https://dtstack-opensource.oss-cn-hangzhou.aliyuncs.com/chengying/Mysql_5.7.38_centos7_x86_64.tar

● Zookeeper

https://dtstack-opensource.oss-cn-hangzhou.aliyuncs.com/chengying/Zookeeper_3.7.0_centos7_x86_64.tar

● Hadoop

https://dtstack-opensource.oss-cn-hangzhou.aliyuncs.com/chengying/Hadoop_2.8.5_centos7_x86_64.tar

● Hive

https://dtstack-opensource.oss-cn-hangzhou.aliyuncs.com/chengying/Hive_2.3.8_centos7_x86_64.tar

● Spark

https://dtstack-opensource.oss-cn-hangzhou.aliyuncs.com/chengying/Spark_2.1.3-6_centos7_x86_64.tar

接着我们可以将下载好的产品包直接通过 ChengYing 界面上传,具体路径是:部署中心 — 组件管理 — 组件列表 — 上传组件安装包:

可以通过两种模式上传产品包:

本地上传方式

产品包在先下载到本机电脑存储中,点击本地上传,选在产品包上传。

网络上传模式

直接填写产品包网络地址上传(ChengYing 的网络需要和产品包网络互通)。

Hadoop 集群部署流程

做完准备后,我们可以开始进入集群部署,Hadoop 集群部署流程包括以下步骤:

集群部署顺序说明

  • 首先需要部署 Mysql 和 zookeeper,因为 Hadoop 需要依赖 zookeeper,Hive 元数据存储使用的是 Mysql;
  • 其次需要部署 Hadoop,Hive
  • 最后部署 Spark,因 Spark 依赖 hivemetastore

PS:部署顺序是不可逆的

Hadoop 集群部署角色分布

产品包标准部署流程

  • 选择需要部署的产品包,点击部署按钮,然后选择对应需要部署的集群,默认集群为 dtstack,集群名称可配置;
  • 下一步选择需要部署的服务,默认产品包下的服务都会部署,可以根据实际需求部署,在此阶段可以对服务的配置文件进行修改,例如:修改 Mysql 连接超时时间等;
  • 最后点击部署,等待部署完成。

Mysql 服务部署流程演示

接下来我们以 Mysql 服务部署流程来为大家实际演示下整体流程:

● 第一步:选择集群

● 第二步:选择产品包

● 第三步:选择部署节点

● 第四步:部署进度查看

● 第五步:部署后状态查看

Hadoop 集群使用与运维

集群部署完毕后,若有需求可以进行配置变更操作。

● 配置修改

例如:如果需要操作修改 yarn 的配置文件,可以先选择 yarn-site.xml 文件,可以在搜索框搜索需要修改的配置文件 key,如 cpu_vcores。

● 配置保存

● 配置下发

Taier 对接 Hadoop 操作流程

ChengYing 除了可自动部署运维外,还可以对接 Taier 部署 Hadoop 集群,Taier 是一个大数据分布式可视化的 DAG 任务调度系统,旨在降低 ETL 开发成本、提高大数据平台稳定性,大数据开发人员可以在 Taier 直接进行业务逻辑的开发,而不用关心任务错综复杂的依赖关系与底层的大数据平台的架构实现,将工作的重心更多地聚焦在业务之中。

利用 ChengYing 部署管理 Taier 服务,可以做到实时监控 Taier 的服务状态,随时界面修改 Taier 配置等。Taier 对接 Hadoop 集群的操作流程如下:

  • 首先需要在 Taier 控制台选择多集群配置,新增一个集群;
  • 然后配置 sftp、资源调度组件、存储组件和计算组件;
  • 配置完成后需要保存并且测试连通性。

注意事项:

在对接过程中,sftp 主机需要和 Taier 网络相通,并且 sftp 配置主机的路径需要存在,如果不存在,需要手动创建。

Taier 的部署网络需要与 Hadoop 网络相通,如果运行任务,需要在 Taier 所在节点加入 Hadoop 集群的 Host 配置;编译 /etc/hosts 文件,增加 IP Hostname。

● 第一步:配置公共组件

首先进入 Taier 登陆界面,点击控制台,新增集群,然后进入多集群管理界面,配置公共组件,选择 SFTP,进入 SFTP 配置界面。

● 第二步:配置 SFTP

然后配置 SFTP 的 host,认证方式,默认采用用户名密码方式,输入用户名和密码,并且输入 path 路径,此路径需要在主机上存在,如果不存在,需要手动创建一个 SFTP 路径.

● 第三步:资源调度组件配置

需要到部署 Hadoop 服务器到 /opt/dtstack/Hive/hive_pkg/conf 目录下获取 hive-site.xml 文件,下载到本地;

到 /opt/dtstack/Hadoop/Hadoop_pkg/etc/Hadoop 目录下获取 hdfs-site.xml、core-site.xml、yarn-site.xml 文件,下载到本地;

这四个文件压缩成一个 zip 包,上传这个压缩包。

● 第四步:计算组件配置

选择计算组件模块,选择需要对接的计算引擎 Hive 和 Spark,选择 Hive 和 Spark 的版本,填写对应的 jdbc(jdbc:hive://ip:port/)连接串,然后点击保存,测试连通性。

注意:jdbcurl 中 ip 分别为 Hive 组件的 hiveserver2 和 Spark 中的 thrifterserver 所在节点 ip。

● 第五步:配置 Hive 和 Spark

以下是配置完成 Hive 和 Spark 组件后,测试连通性的状态。

注意:本地演示环境 Hadoop 未开启安全,Hive 和 Spark 只需要配置 jdbcurl 即可。

Hadoop 集群近期规划

最后和大家聊聊 Hadoop 集群近期规划,近期主要有三大规划:

● 产品包制作

制作 ChengYing 部署产品包的流程及实践。

● ChunJun&Taier 产品包

制作可以用 ChengYing 部署的 Taier 和 chunjun 的产品包

● Hadoop 运维

通过 ChengYing 运维大数据集群;

通过 ChengYing 一键开启 Hadoop 集群安全。

版权声明:
作者:数栈DTinsight
链接:https://jkboy.com/archives/12956.html
来源:随风的博客
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
打赏
海报
开源项目丨一文详解一站式大数据平台运维管家 ChengYing 如何部署 Hadoop 集群
课件获取:关注公众号 “数栈研习社”,后台私信 “ChengYing” 获得直播课件
<<上一篇
下一篇>>