|
发表于 2024-4-16 17:19:38
|
查看: 99 |
回复: 3
最终部署:
- https://blog.csdn.net/SJshenjian/article/details/131069153
复制代码
适合多个虚拟机,docker 容器管理
https://blog.51cto.com/u_15564034/6437531
git clone https://github.com/hulichao/docker-bigdata
适合一键简单粗暴
https://blog.csdn.net/u012468376/article/details/116496051
- https://pan.baidu.com/s/1kPIsw62TpUHQp7HN6r4HAw?pwd=mfyx
复制代码
注意
资源的下载地址:
链接:https://pan.baidu.com/s/1kPIsw62TpUHQp7HN6r4HAw?pwd=mfyx 提取码:mfyx
有问题联系我:lizhenchao@atguigu.cn
脚本的运行环境: centos7.5 +
目录说明
不要更改docker_bigdata及子目录的目录结构
进入到docker_bigdata目录下再执行脚本
镜像构建说明
build_all.sh 可以构建需要用到的所有镜像, 运行的时候, 根据自己的需要选择需要构建的镜像,最后会创建 3 个容器 hadoop162, hadoop163, hadoop164
容器构建后, 直接可用的环境包括
hadoop集群
zookeeper集群
kafka集群
hbase集群
es集群
redis
hive
spark
Phoenix
容器启动说明
contains.sh start 启动集群容器
启动的时候会自动根据当前宿主机的 ip 进行配置, 3 个容器的 ip 分别是 xxx.162, xxx.163, xxx.164, xxx 是根据当前宿主的 ip 自动获取的
内置了root和atguigu用户, 密码均为aaaaaa
容器第一次启动已经完成的事情
虚拟机与容器之间免密登录
容器与容器之间免密登录
格式化hdfs
给mysql的root用户设置密码为aaaaaa
特别说明
容器一旦创建成功之后, 以后使用的时候启动即可
启动 hadoop: hadoop.sh start
启动 kafka: kafka.sh start
启动 zookeeper: zk start
启动 hbase: start-hbase.sh
————————————————
|
|