在centos系統上部署hadoop分布式文件系統(hdfs)的完整指南
本指南詳細介紹如何在centos系統上安裝和配置hadoop分布式文件系統(hdfs)。 請確保您已具備基本的Linux命令行操作經驗。
第一步:準備工作
首先,更新系統軟件包并禁用防火墻和SELinux(推薦,但非強制):
sudo yum update -y sudo systemctl stop firewalld sudo systemctl disable firewalld sudo setenforce 0 sudo sed -i 's/SELinux=enforcing/SELINUX=disabled/g' /etc/selinux/config
第二步:安裝Java
Hadoop依賴Java運行環境。安裝Java 8 (OpenJDK):
sudo yum install -y java-1.8.0-openjdk-devel
第三步:下載和解壓Hadoop
從Apache Hadoop官網下載最新穩定版本的Hadoop發行包。解壓到/opt目錄:
tar -xzvf hadoop-<version>.tar.gz -C /opt sudo mv /opt/hadoop-<version> /opt/hadoop
(將
第四步:配置Hadoop
- 設置環境變量: 創建并編輯/etc/profile.d/hadoop.sh文件:
sudo nano /etc/profile.d/hadoop.sh
添加以下內容:
export HADOOP_HOME=/opt/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使環境變量生效:
source /etc/profile.d/hadoop.sh
- 配置Hadoop核心文件:
- hadoop-env.sh: 設置JAVA_HOME路徑:
sudo nano $HADOOP_HOME/etc/hadoop/hadoop-env.sh
添加或修改以下行:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
- core-site.xml: 配置默認文件系統:
sudo nano $HADOOP_HOME/etc/hadoop/core-site.xml
添加以下內容:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
sudo nano $HADOOP_HOME/etc/hadoop/hdfs-site.xml
添加以下內容:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/hadoop/data/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/opt/hadoop/data/datanode</value> </property> </configuration>
sudo nano $HADOOP_HOME/etc/hadoop/mapred-site.xml
添加以下內容:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
sudo nano $HADOOP_HOME/etc/hadoop/yarn-site.xml
添加以下內容:
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration>
第五步:格式化HDFS
在單機模式下格式化NameNode:
hdfs namenode -format
第六步:啟動Hadoop集群
啟動HDFS和YARN:
start-dfs.sh start-yarn.sh
第七步:驗證安裝
- 檢查HDFS狀態:
hdfs dfsadmin -report
- 訪問Web界面:
如果一切正常,您應該能夠看到HDFS和YARN的Web界面。 如有任何錯誤,請檢查Hadoop日志文件(/opt/hadoop/logs)以查找問題原因。 記住,這只是一個單節點的HDFS安裝,對于多節點集群,需要進行更復雜的配置。