当前位置:首页 > 修改聊天记录 > 正文内容

Hadoop 完全分布式搭建(超详细无坑版,直接复制执行)

# Hadoop 完全分布式搭建【超详细无坑版|直接复制执行】 适配:**CentOS 7 / Rocky Linux 7+** 架构:`1主 + 2从` - master:NameNode、ResourceManager - node1:DataNode、NodeManager - node2:DataNode、NodeManager 前置统一规范: - 主机名:master / node1 / node2 - 统一用户:root - 统一目录:`/usr/local/hadoop` - JDK:1.8 - 关闭防火墙、SELinux、免密登录、固定IP --- # 一、三台机器 前置统一配置(所有节点执行) ## 1. 固定主机名 ```bash # master 执行 hostnamectl set-hostname master # node1 执行 hostnamectl set-hostname node1 # node2 执行 hostnamectl set-hostname node2 ``` ## 2. 配置 hosts(三台全部执行) ```bash cat >> /etc/hosts << EOF 192.168.10.100  master 192.168.10.101  node1 192.168.10.102  node2 EOF ``` > 替换为你三台真实 IP ## 3. 关闭防火墙 & 开机不自启 ```bash systemctl stop firewalld systemctl disable firewalld ``` ## 4. 关闭 SELinux ```bash sed -i 's/^SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config setenforce 0 ``` ## 5. 安装依赖 ```bash yum install -y wget net-tools vim lrzsz tar ``` --- # 二、配置 SSH 免密登录【仅 master 执行】 ```bash # 生成密钥 一路回车 ssh-keygen -t rsa # 分发公钥到三台机器 ssh-copy-id master ssh-copy-id node1 ssh-copy-id node2 ``` 测试:`ssh node1` 无需密码即为成功 --- # 三、统一安装 JDK1.8(三台全部) ## 1. 解压安装 ```bash # 上传 jdk-8u341-linux-x64.tar.gz 到 /usr/local tar -zxvf /usr/local/jdk-8u341-linux-x64.tar.gz -C /usr/local/ mv /usr/local/jdk1.8.0_341 /usr/local/jdk ``` ## 2. 配置环境变量 ```bash cat >> /etc/profile << EOF # JDK export JAVA_HOME=/usr/local/jdk export JRE_HOME=\$JAVA_HOME/jre export CLASSPATH=.:\$JAVA_HOME/lib:\$JRE_HOME/lib export PATH=\$JAVA_HOME/bin:\$PATH EOF source /etc/profile java -version ``` --- # 四、Hadoop 安装【master 操作,后续分发】 ## 1. 解压 ```bash # 上传 hadoop-3.3.6.tar.gz 到 /usr/local tar -zxvf /usr/local/hadoop-3.3.6.tar.gz -C /usr/local/ mv /usr/local/hadoop-3.3.6 /usr/local/hadoop ``` ## 2. Hadoop 环境变量 ```bash cat >> /etc/profile << EOF # HADOOP export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=\$HADOOP_HOME/etc/hadoop export HADOOP_COMMON_LIB_NATIVE_DIR=\$HADOOP_HOME/lib/native export PATH=\$HADOOP_HOME/bin:\$HADOOP_HOME/sbin:\$PATH EOF source /etc/profile hadoop version ``` ## 3. 修改 hadoop-env.sh ```bash vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh ``` 写入: ```bash export JAVA_HOME=/usr/local/jdk export HDFS_NAMENODE_USER=root export HDFS_DATANODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root export YARN_RESOURCEMANAGER_USER=root export YARN_NODEMANAGER_USER=root ``` --- # 五、核心配置文件(全部复制覆盖) ## 1. core-site.xml ```bash vim /usr/local/hadoop/etc/hadoop/core-site.xml ``` ```xml <configuration>    <property>        <name>fs.defaultFS</name>        <value>hdfs://master:9000</value>    </property>    <property>        <name>hadoop.tmp.dir</name>        <value>/usr/local/hadoop/tmp</value>    </property>    <property>        <name>hdfs.trash.interval</name>        <value>1440</value>    </property> </configuration> ``` ## 2. hdfs-site.xml ```bash vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml ``` ```xml <configuration>    <property>        <name>dfs.replication</name>        <value>2</value>    </property>    <property>        <name>dfs.namenode.secondary.http-address</name>        <value>node1:50090</value>    </property> </configuration> ``` ## 3. mapred-site.xml ```bash vim /usr/local/hadoop/etc/hadoop/mapred-site.xml ``` ```xml <configuration>    <property>        <name>mapreduce.framework.name</name>        <value>yarn</value>    </property>    <property>        <name>mapreduce.application.classpath</name>        <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>    </property> </configuration> ``` ## 4. yarn-site.xml ```bash vim /usr/local/hadoop/etc/hadoop/yarn-site.xml ``` ```xml <configuration>    <property>        <name>yarn.resourcemanager.hostname</name>        <value>master</value>    </property>    <property>        <name>yarn.nodemanager.aux-services</name>        <value>mapreduce_shuffle</value>    </property> </configuration> ``` ## 5. workers 从节点列表 ```bash vim /usr/local/hadoop/etc/hadoop/workers ``` 清空原有内容,写入: ``` node1 node2 ``` --- # 六、分发 Hadoop 到 node1、node2 ```bash scp -r /usr/local/hadoop node1:/usr/local/ scp -r /usr/local/hadoop node2:/usr/local/ # 分发环境变量 scp /etc/profile node1:/etc/ scp /etc/profile node2:/etc/ ``` 两台从节点执行生效: ```bash source /etc/profile ``` --- # 七、格式化 & 启动集群【仅 master】 ## 1. 初始化临时目录 ```bash mkdir -p /usr/local/hadoop/tmp ``` ## 2. 格式化 NameNode(**只执行一次!**) ```bash hdfs namenode -format ``` ## 3. 启动 HDFS ```bash start-dfs.sh ``` ## 4. 启动 YARN ```bash start-yarn.sh ``` --- # 八、集群进程检查 ## master 执行:`jps` ``` NameNode ResourceManager ``` ## node1 / node2 执行:`jps` ``` DataNode NodeManager ``` --- # 九、Web 访问 - HDFS:http://master:9870 - YARN:http://master:8088 --- # 十、常用启停命令 ```bash # 全集群停止 stop-dfs.sh stop-yarn.sh # 全集群启动 start-dfs.sh start-yarn.sh ``` --- # 十一、避坑关键点(必看) 1. 所有节点 **IP+hosts 一一对应** 2. 只在 **第一次部署** 执行 `hdfs namenode -format`,重复格式化集群损坏 3. 免密登录必须通,否则启动卡死 4. 防火墙、SELinux 必须关闭 5. 三台机器 **JDK、Hadoop 路径完全一致**

扫描二维码推送至手机访问。

版权声明:本文由手机数据加工厂发布,如需转载请注明出处。

本文链接:https://www.gaijilu.com/?id=253

“Hadoop 完全分布式搭建(超详细无坑版,直接复制执行)” 的相关文章

修改聊天记录效果展示

这个视频是通过软件剪辑合成的,只是表明是这种效果,实际操作远比这个复杂,且过程中没有这么快捷,有一些准备工作,比方说手机的设置等,手机设置完成连接网络后,可能需要5-10分钟。全新一代定制手机,支持通过远程方式修改和添加定制手机内任意类型的聊天记录。功能仅限于对定制手机上登录的微信账号进行操作,且仅...

微信数据库修复在哪里?快速解决微信数据库问题的方法!

微信数据库修复在哪里?快速解决微信数据库问题的方法!

微信是一款非常流行的社交软件,但是在使用过程中,有时会遇到微信数据库出现问题的情况。本文将介绍微信数据库修复的方法,帮助用户快速解决微信数据库问题。工具原料:电脑品牌型号:苹果MacBook Pro操作系统版本:macOS Big Sur 11.2.3软件版本:微信 3.3.0一、备份微信数据库1、...

关闭这几个设置,手机瞬间杜绝监听偷窥

1. 关闭多余定位权限所有无关 APP,全部关掉定位只给地图、外卖临时用拒绝 24 小时跟踪你的行踪2. 关闭相机、麦克风权限小游戏、杂牌软件、工具箱全部禁用相机 + 麦克风防止后台偷偷录音、偷拍3. 关闭自动读取剪贴板杜绝 APP 偷看你复制的密码、验证码、聊天内容隐私再也不被偷偷收集4. 关闭后...

苹果iPhone+Mac如何开启WiFi+蓝牙

下面直接给你「一步到位」的极简版,照着点就行(为了隔空投送,**Wi‑Fi 和蓝牙都要开,不需要连同一个 Wi‑Fi 也能投送**)。 --- iPhone 打开 Wi‑Fi + 蓝牙(两种方法) 方法1:控制中心(最快) - 全面屏 iPhone(带刘海):**右上角往下滑**...

 如何清理手机中的重复文件?

如何清理手机中的重复文件?

一、安卓(华为 / 小米 / OPPO/vivo)1. 一键清理所有重复文件(照片 + 文档 + 安装包)打开手机管家 / 安全中心 /i 管家进入清理加速 / 空间清理扫描完找到重复文件 → 去清理全选重复项 → 删除(自动保留一份)2. 相册重复照片 / 视频(最占空间)华为:相册 → 相册管理...

如何选择适合自己的手机电脑数据同步方式?

一、根据使用需求选择1日常少量传输(图片、文档、文字)适合:微信 / QQ 文件传输助手、跨设备剪贴板、网页版互传特点:操作最简单,无需额外安装软件,适合临时发资料、截图、作业文件,普通学生、日常使用首选。2传输大文件、高清视频、大量照片适合:USB 有线连接、品牌专属互传、多屏协同特点:传输速度快...

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。