Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

一、环境:Vmware16+三台cent0s6.5

二、步骤

 ROOT 用户操作(三台虚拟机都要操作,下面是以 HMaster 的操作截图)

一、配置 IP 和网关

1.在 windows 下查询 IP 和网关

2.在虚拟机上切换到目录 network-scripts 下,找到文件 ifcfg-eth0

cd /etc/sysconfig/network-scripts/

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

3.用 vim 命令编辑文件 ifcfg-eth0

vim ifcfg-eth0

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

4.配置完成后,ping IP 和网关

vim ifcfg-eth0

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

二、关闭防火墙

 chkconfig iptables off

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

三、修改主机名

1. 切换到如图所示目录,将文件中的 HOSTNAME 分别改为 HMaster、

HSlave1、HSlave2

vim /etc/sysconfig/network

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

四、绑定 IP 和主机名 (三台虚拟机都要绑定三个IP,这里只截屏了HMaster)

vim /etc/hosts

ping HMaster

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群Vmware虚拟机Centos6.5+Hadoop 完全分布式集群Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

二、配置免密登录(三台都需要操作,但是只截了主节点的图片)

1. 生成密钥

ssh-keygen -t rsa 

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

2. 复制密钥到一个新的文件

cd .ssh/

 ll

 cat id_rsa.pub

 cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

 cat authorized_keys

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

3. 从主节点复制密钥文件到两个从节点

scp ~/.ssh/authorized_keys y@HSlave1:~/.ssh/
 scp ~/.ssh/authorized_keys y@HSlave2:~/.ssh/ 

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

4. 验证免密登录是否成功,用主节点登录从节点

ssh HSlave1
 ssh HSlave2

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

三、上传文件

1. 在家目录下创建一个 software 文件夹

 mkdir software

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

2.上传 jdk 和 hadoop 压缩包

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

3. 从主节点复制 jdk 和 hadoop 压缩包给从节点(下图是 HSlave1 复制的

截图)

scp /home/y/software/hadoop-3.3.0.tar.gz  y@HSlave1:/home/y/software/
scp /home/y/software/jdk-8u171-linux-x64.tar.gz y@HSlave1:/home/y/

software/

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群HSlave2同上述操作一样,只是将命令改为以下命令:

scp /home/y/software/hadoop-3.3.0.tar.gz  y@HSlave2:/home/y/software/
scp /home/y/software/jdk-8u171-linux-x64.tar.gz  y@HSlave2:/home/y

/software/

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

4. 去从节点检查是否复制文件成功

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

四、配置 jdk 和 hadoop 的环境变量(三台都要配置)

1. 解压 jdk 和 hadoop(三台都要)

tar -zxvf jdk-8u171-linux-x64.tar.gz

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

tar -zxvf hadoop-3.3.0.tar.gz

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

2. 在 software 下创建 hadooptmp 目录

 mkdir hadooptmp

 ll

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

3. 配置 jdk 和 hadoop 的环境变量

 vim .bash_profile

source .bash_profile

配置前:

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

配置内容:

#JDK

export JAVA_HOME=/home/y/software/jdk1.8.0_171

export PATH=$JAVA_HOME/bin:$PATH

#HADOOP

export HADOOP_HOME=/home/y/software/hadoop-3.3.0

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

配置后:

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

注:配置后一定要 source 一下,不然无效

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

4. 验证 jdk 是否配置成功

 java -version

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

5. 切换到 hadoop 目录下

 cd /home/y/software/hadoop-3.3.0/etc/hadoop/

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

6. 配置 hadoop-env.sh 文件

 vim hadoop-env.sh

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

配置内容:(home/y/software/是jdk所在的路径,根据自己的路径来写)

export JAVA_HOME=/home/y/software/jdk1.8.0_171

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

7. 配置 yarn-env.sh 文件

 vim yarn-env.sh

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

配置内容:

 export JAVA_HOME=/home/y/software/jdk1.8.0_171

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

五、配置 Hadoop 文件(仅在主节点 HMaster 下进行操作)

1. 配置 core-site.xml

 vim core-site.xml

配置内容:




fs.defaultFS

hdfs://HMaster:9000





hadoop.tmp.dir

/home/y/software/hadooptmp



Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

2.配置 hdfs-site.xml

vim hdfs-site.xml

配置内容:




dfs.replication

3l



Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

3. 配置 yarn-site.xml

 vim yarn-site.xml

配置内容:




yarn.nodemanager.aux-services

mapreduce_shuffle





yarn.resourcemanager.address

HMaster:18040





yarn.resourcemanager.scheduler.address

HMaster:18030





yarn.resourcemanager.resource-tracker.address

HMaster:18025





yarn.resourcemanager.admin.address

HMaster:18141





yarn.resourcemanager.webapp.address

HMaster:8088



Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

4. 配置 mapred-site.xml

 vim mapred-site.xml

配置内容:




mapreduce.framework.name

yarn



Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

5. 配置 workers

 vim workers 

 

配置内容:

HSlave1

HSlave2

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

6. 将配置好的 Hadoop 文件复制到从节点(在 software 目录下复制,不然可能

会找不到文件)

scp -r hadoop-3.3.0 y@HSlave1:~/software/
 scp -r hadoop-3.3.0 y@HSlave2:~/software/

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

六、格式化 hadoop 集群(仅在主节点 HMaster 下进行操作)

 hdfs namenode -format

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

七、启动集群(仅在主节点 HMaster 下进行操作)

 start-all.sh

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

jps(需要在从节点查看进程,主节点有四个进程,从节点只要三个)

八、Ping 端口

 ping 192.168.43.100:8088

 ping 192.168.43.100:9870

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

Vmware虚拟机Centos6.5+Hadoop 完全分布式集群

这样hadoop集群就搭建完成了。

本文来自网络,不代表协通编程立场,如若转载,请注明出处:https://net2asp.com/e1c40c93fe.html