云计算百科
云计算领域专业知识百科平台

大数据管理平台DataSophon-1.2.1【图文详细部署流程】

一、DataSophon介绍

1.1、愿景​

致力于快速实现部署、管理、监控以及自动化运维大数据云原生平台,帮助您快速构建起稳定、高效、可弹性伸缩的大数据云原生平台。

1.2、DataSophon是什么​

《三体》,这部获世界科幻文学最高奖项雨果奖的作品以惊艳的"硬科幻"风被大家所熟知,其作者刘慈欣更是被誉为"单枪匹马将中国科幻提高到世界级水平"。

作为三体中非常重要的角色,智子(Sophon)是将九维的质子进行二维展开,通过电路蚀刻改造成超级计算机后,再转回到微观的十一维来监控人类的一举一动,并利用量子纠缠实现瞬时通信报告给4光年之外的三体文明。说白了智子是三体文明部署在地球的AI实时远程监控和管理平台。

DataSophon也是个类似的管理平台,只不过与智子不同的是,智子的目的是锁死人类的基础科学阻碍人类技术爆炸,而DataSophon是致力于自动化监控、运维、管理大数据基础组件和节点的,帮助您快速构建起稳定,高效的大数据集群服务。

1.3主要特性有:

  • 快速部署,可快速完成300个节点的大数据集群部署
  • 兼容复杂环境,极少的依赖使其很容易适配各种复杂环境
  • 监控指标全面丰富,基于生产实践展示用户最关心的监控指标
  • 灵活便捷的告警服务,可实现用户自定义告警组和告警指标
  • 可扩展性强,用户可通过配置的方式集成或升级大数据组件

1.4、整体架构

1.5、集成组件​

各集成组件均进行过兼容性测试,并稳定运行于300+个节点规模的大数据集群,日处理数据量约4000亿条。在海量数据下,各大数据组件调优成本低,平台默认展示用户关心和需要调优的配置。

序号 名称 版本 描述
1 HDFS 3.3.3 分布式大数据存储
2 YARN 3.3.3 分布式资源调度与管理平台
3 ZooKeeper 3.5.10 分布式协调系统
4 Kafka 2.4.1 高吞吐量分布式发布订阅消息系统
5 Hive 3.1.0 离线数据仓库
6 FLINK 1.16.2 实时计算引擎
7 Spark 3.1.3 分布式计算系统
8 Hbase 2.4.16 分布式列式存储数据库
9 Trino 367 分布式Sql交互式查询引擎
10 Ranger 2.1.0 权限控制框架
11 ElasticSearch 7.16.2 高性能搜索引擎
12 StreamPark 2.1.1 流处理极速开发框架,流批一体&湖仓一体的云原生平台
13 DolphoinScheduler 3.1.8 分布式易扩展的可视化工作流任务调度平台
14 AlertManager 0.23.0 告警通知管理系统
15 Prometheus 2.17.2 高性能监控指标采集与告警系统
16 Grafana 9.1.6 监控分析与数据可视化套件
17 Kerberos 1.15.1 计算机网络认证协议
18 Doris 1.2.6 新一代极速全场景MPP数据库
19 Kyuubi 1.7.3 统一多租户JDBC网关
20 Iceberg 1.4.0 适用于庞大数据集分析的开放式数据表格式

二、部署准备

2.1、服务器 

IP 主机名 CPU 内存 磁盘
192.168.0.171 ddp01 8c 20G 50G
192.168.0.172 ddp02 8c 20G 50G
192.168.0.173 ddp03 8c 20G 50G
192.168.0.174 ddp04 8c 20G 50G

2.2、主机名映射 

配置/etc/hosts文件(四台服务器都需要,第一行localhost 需要根据不同服务器修改)

[root@ddp01 datasophon-manager-1.2.1]# vim /etc/hosts
192.168.0.171 localhost
192.168.0.171 ddp01
192.168.0.172 ddp02
192.168.0.173 ddp03
192.168.0.174 ddp04
配置主机host
大数据集群所有机器需配置主机host。

配置主机名: hostnamectl set-hostname 主机名
配置/etc/hosts文件

2.3、关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
systemctl status firewalld

2.4、集群免密

部署机器中,DataSophon节点以及大数据服务主节点与从节点之间需免密登录。

配置免密

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

2.5、系统文件句柄

vim /etc/security/limits.conf
# End of file

* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 65536

2.6、环境要求

Jdk环境需安装,参考:centos7.9 配置java1.8 环境变量-CSDN博客

MySQL安装参考:centos7.9 安装 mysql5.7 【详细教程】-CSDN博客

需关闭mysql ssl功能参考:mysql5.7.6关闭SSL-CSDN博客

2.7、创建目录

在ddp01(171)服务器/opt/datasophon目录下创建目录

mkdir -p /opt/datasophon/DDP/packages

将下载的部署包上传(或者使用软链)到/opt/datasophon/DDP/packages目录下,作为项目部署包仓库地址。

三、部署

3.1、解压

在安装目录下解压datasophon-manager-{version}.tar.gz,解压后可以看到如下安装目录:

cd /opt/datasophon/DDP/packages/
tar -zxvf datasophon-manager-1.2.1.tar.gz

DataSophon 的所有应用配置文件在 conf 目录下。如果需要使用 DataSophon 的全部功能,在这之前先了解一下如何进行配置

conf 目录结构如下:

|– datasophon.conf
|– logback-api.xml
|– common.properties
|– profiles
| |– application-config.yml

datasophon.conf 为快捷配置文件;如果你只想快速体验 DataSophon 的功能,配置它就足够了。datasophon.conf 本质上是 application-config.yml 中常用配置的快捷方式

logback-api.xml为日志配置文件

profiles/application-config.yml 为应用配置文件,包含所有的应用配置。

3.2、配置应用数据库

3.2.1、创建数据库,

 指定数据库编码为UTF-8

CREATE DATABASE IF NOT EXISTS datasophon DEFAULT CHARACTER SET utf8;
grant all privileges on *.* to datasophon@"%" identified by 'datasophon' with grant option;
GRANT ALL PRIVILEGES ON *.* TO 'datasophon'@'%';
FLUSH PRIVILEGES;

3.2.2、修改配置

修改 conf 目录下的application.yml 配置文件中数据库链接配置(需要根据自己需要修改数据库名、用户和密码):

spring:
datasource:
driver-class-name: com.mysql.cj.jdbc.Driver
type: com.alibaba.druid.pool.DruidDataSource
url: jdbc:mysql://${datasource.ip:localhost}:${datasource.port:3306}/${datasource.database:datasophon}?&allowMultiQueries=true&characterEncoding=utf-8
username: datasophon
password: datasophon

server:
port: ${server.port:8081}
address: ${server.ip:0.0.0.0}

datasophon:
migration:
enable: true

3.2.3、启动服务

cd /opt/datasophon/DDP/packages/datasophon-manager-1.2.1
#启动
sh bin/datasophon-api.sh start api
#停止
sh bin/datasophon-api.sh stop api
#重启
sh bin/datasophon-api.sh restart api

3.2.4、部署成功后、可以进行日志查看

日志统一存放于logs文件夹内:

[root@ddp01 datasophon-manager-1.2.1]# cd logs/
[root@ddp01 logs]# ls -l
总用量 5020
-rw-r–r–. 1 root root 114998 7月 28 09:05 api-ddp01.out
-rw-r–r–. 1 root root 1341328 7月 27 16:59 datasophon-api.2024-07-27_16.0.log
-rw-r–r–. 1 root root 200702 7月 27 17:12 datasophon-api.2024-07-27_17.0.log
-rw-r–r–. 1 root root 509741 7月 27 20:59 datasophon-api.2024-07-27_20.0.log
-rw-r–r–. 1 root root 144099 7月 27 21:59 datasophon-api.2024-07-27_21.0.log
-rw-r–r–. 1 root root 82398 7月 27 22:59 datasophon-api.2024-07-27_22.0.log
-rw-r–r–. 1 root root 62032 7月 27 23:05 datasophon-api.2024-07-27_23.0.log
-rw-r–r–. 1 root root 112531 7月 28 08:59 datasophon-api.2024-07-28_08.0.log
-rw-r–r–. 1 root root 1372955 7月 27 16:59 datasophon-api-error.2024-07-27_16.0.log
-rw-r–r–. 1 root root 1146702 7月 27 17:08 datasophon-api-error.2024-07-27_17.0.log
-rw-r–r–. 1 root root 15260 7月 27 22:16 datasophon-api-error.2024-07-27_22.0.log
-rw-r–r–. 1 root root 6948 7月 27 23:05 datasophon-api-error.log
-rw-r–r–. 1 root root 706 7月 28 09:05 datasophon-api.log

访问前端页面地址, 默认用户名和密码为admin/admin123

http://192.168.0.171:8081/ddh/#/login

3.3、创建集群

3.3.1、登录进入系统页面后在集群管理页面创建集群

DataSophon支持多集群管理和授予用户集群管理员权限。

3.3.2、点击【创建集群】

输入集群名称,集群编码(集群唯一标识),集群框架。

3.3.3、创建成功后点击【配置集群】:

根据提示,输入主机列表(注意:主机名需与在准备环境中hostnamectl set-hostname 设置的主机名一致),ssh用户名默认为root和ssh端口默认为22。

3.3.4、配置完成后,点击【下一步】,系统开始链接主机并进行主机环境校验。

3.3.5、主机环境校验成功后点击【下一步】

主机agent分发步骤将自动分发datasophon-worker组件,并启动WorkerApplicationServer。

3.3.6、主机管理Agent分发完成后,点击【下一步】,开始部署服务。

初始化配置集群先选择部署AlertManager,Grafana和Prometheus三个组件。DataSophon依赖此三个组件实现系统监控告警管理。

3.3.7、点击【下一步】

分配AlertManager,Grafana和Prometheus服务的worker与client服务角色部署节点,没有worker和client服务角色的可以跳过之间点击【下一步】。

3.7.8、修改各服务配置。系统已给出默认配置,大部分情况下无需修改。

3.7.9、点击【下一步】开始服务安装,可实时查看服务安装进度。

3.7.10、点击【完成】,在集群管理页面点击【进入】,即可进入集群服务组件管理页面。

3.4、配置个人电脑映射

配置正在访问集群的hosts(我这里是windows,配置路径C:\\Windows\\System32\\drivers\\etc)

集群访问组件页面时用的是hostname

四、服务安装

4.1、添加ZooKeeper。

分配ZooKeeper master服务角色部署节点,zk需部3台或5台。

Zk没有worker与client服务角色,直接点击【下一步】跳过。

根据实际情况修改Zk服务配置。

点击【下一步】,进行zk服务安装。

安装成功后即可查看Zookeeper服务总览页面。

4.2、添加HDFS

其中JournalNode需部署三台,NameNode部署两台,ZKFC和NameNode部署在相同机器上。如下图:

点击【下一步】,选择DataNode部署节点。

根据实际情况修改配置,例如修改DataNode数据存储目录。

点击【下一步】,开始安装Hdfs。

安装成功后,即可查看HDFS服务总览页面。

4.3、添加YARN

其中ResourceManager需部署两台作高可用。如下图:

点击【下一步】,选择NodeManager部署节点。

根据实际情况修改配置。

点击【下一步】,开始安装YARN。

4.4、添加Spark

选择SPARK3。

Spark没有Master角色,直接点击【下一步】。

分配服务Worker与Client角色

根据实际情况修改配置

点击【下一步】,安装Spark。

安装成功后,即可查看SPARK3服务总览页面。

4.5、添加Flink

选择Flink

FLink没有Master角色,选择分配服务Worker与Client角色

根据需要配置服务

点击【下一步】,安装FLink。

安装成功后,即可查看FLINK服务总览页面。

4.6、添加Hive

在数据库中创建Hive数据库。

CREATE DATABASE IF NOT EXISTS hive DEFAULT CHARACTER SET utf8;

grant all privileges on *.* to hive@"%" identified by 'hive' with grant option;

GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%';

FLUSH PRIVILEGES;

选择需要安装hiveserver2和metastore角色的节点

HIVE没有Master节点

选择需要安装hiveclient角色的节点

根据实际情况修改配置

等待安装完成,安装成功后即可查看Hive服务总览页面

安装成功后可查看Hive总览页面。

4.7、添加Kafka

选择安装kafka服务broker角色的节点

分配服务Worker与CLient角色

根据实际情况调整Kafka参数。

点击下一步 等待安装完成

Kafka安装成功后,即可在Kakfa服务总览页查看Kafka详情。

4.8、添加Hbase

点击【添加服务】,选择Hbase。

选择HMaster。

选择RegionServer。

可根据需要修改服务配置。

点击【下一步】开始安装Hbase。

安装成功后可查看Hbase总览页面。

4.9、添加Trino

点击【添加服务】,选择Trino。

选择TrinoCoordinator。

选择TrinoWorker。注意:TrinoCoordinator和TrinoWorker不要部署在同一台机器上。

注意"Trino最大堆内存","每个查询在单个节点可使用最大内存"这两个配置,其中"每个查询在单个节点可使用最大内存"不可超过"Trino最大堆内存"的80%,"总共可使用最大内存"为"每个查询在单个节点可使用最大内存"* TrinoWorker数。

点击【下一步】,开始安装Trino。

安装成功后可查看Trino总览页面。

选择trino的webui,可以访问trino的连接,http://192.168.3.116:8086/ui/ (账号admin 没有密码)

4.10、添加Ranger

创建Ranger数据库。

CREATE DATABASE IF NOT EXISTS ranger DEFAULT CHARACTER SET utf8;

grant all privileges on *.* to ranger@"%" identified by 'ranger' with grant option;

GRANT ALL PRIVILEGES ON *.* TO 'ranger'@'%';

FLUSH PRIVILEGES;

点击【添加服务】,选择Ranger。

选择RangerAdmin部署节点。

分配服务Worker与CLient角色

输入数据库root用户密码,数据库地址,Ranger数据用户密码等配置信息。

点击【下一步】,开始安装Ranger,Ranger在安装过程中会执行sql语句,可能因mysql配置问题导致sql执行失败,从而导致Ranger安装失败,可查看日志查找sql执行失败原因,解决后重新添加实例安装。

安装成功后可查看Ranger总览页面。

http://ddp02:6080/login.jsp admin/admin123

4.11、添加DolphinScheduler

初始化DolphinScheduler数据库。

CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;

GRANT ALL PRIVILEGES ON dolphinscheduler.* TO 'dolphinscheduler'@'%' IDENTIFIED BY 'dolphinscheduler';

GRANT ALL PRIVILEGES ON dolphinscheduler.* TO 'dolphinscheduler'@'localhost' IDENTIFIED BY 'dolphinscheduler';

flush privileges;

执行/opt/datasophon/DDP/packages目录下dolphinscheduler_mysql.sql创建dolphinscheduler数据库表。

mysql> use dolphinscheduler;

Database changed

mysql> source /opt/datasophon/DDP/packages/dolphinscheduler_mysql.sql

Query OK, 0 rows affected (0.00 sec)

Query OK, 0 rows affected, 1 warning (0.00 sec)

添加DolphinScheduler。

分配api-server/alert-server/master-server/worker-server角色

分配Work与Client 角色

根据实际情况,修改DolphinScheduler配置。

等待安装完成

安装成功后即可查看DolphinScheduler服务总览页面。

点击WebUI下面的链接

http://ddp01:12345/dolphinscheduler/ui/login admi/dolphinscheduler123

4.12、添加ElasticSearch

分配服务Master角色

根据实际情况修改配置。

等待安装完成

根据实际情况,修改ElasticSearch配置。

4.13、添加StreamPark

初始化StreamPark数据库。

CREATE DATABASE streampark DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;

GRANT ALL PRIVILEGES ON streampark.* TO 'streampark'@'%' IDENTIFIED BY 'streampark';

GRANT ALL PRIVILEGES ON streampark.* TO 'streampark'@'localhost' IDENTIFIED BY 'streampark';

flush privileges;

在命令行中链接数据库,执行下面三个SQL文件

/opt/datasophon/DDP/packages/streampark.sql

/opt/datasophon/DDP/packages/streampark_mysql-schema.sql

/opt/datasophon/DDP/packages/streampark_mysql-data.sql

添加StreamPark。

分配Master角色

分配服务Worker与CLient角色(系统生成 改不了)

根据实际情况修改配置。

等待安装完成

安装成功后可查看StreamPark总览页面,

可通过WebUi跳转到StreamPark用户页面。

http://ddp01:10000/#/login admin/streampark

4.14、添加Kerberos

点击【添加服务】,选择Kerberos。

分配Krb5Kdc和KAdmin服务角色部署节点。

分配服务Worker与CLient角色

点击【下一步】,进行Kerberos服务配置页面,默认不需要修改,注意:域名默认为HADOOP.COM,暂不支持修改。

等待安装完成

4.15、添加Iceberg

点击【添加服务】,选择Iceberg。选择IcebergClient

根据实际情况修改配置。

安装完成

4.16、doris

还没安装成功

参考文章:

官网:DataSophon | DataSophon

【DataSophon】大数据管理平台DataSophon-1.2.1安装部署详细流程-CSDN博客

赞(0)
未经允许不得转载:网硕互联帮助中心 » 大数据管理平台DataSophon-1.2.1【图文详细部署流程】
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!