【赵强老师】搭建Hadoop环境

2022-10-08,,,,

说明:这里我们以本地模式和伪分布模式伪列,为大家介绍如何搭建hadoop环境。有了这个基础,大家可以自行搭建hadoop的全分布模式。

需要使用的安装介质:

  • hadoop-2.7.3.tar.gz
  • jdk-8u181-linux-x64.tar.gz
  • rhel-server-7.4-x86_64-dvd.iso

一、安装前的准备工作

  • 安装好redhat linux 7.4(安装包rhel-server-7.4-x86_64-dvd.iso),并在linux上创建tools和training两个目录

 

 

 

 

 

  • 关闭防火墙,执行下面的命令
systemctl stop firewalld.service
systemctl disable firewalld.service
  • 配置主机名,使用vi编辑器编辑文件/etc/hosts,输入以下内容
bigdata111	192.168.157.111
  • 配置免密码登录,在命令行中输入下面的命令
ssh-keygen -t rsa
ssh-copy-id -i .ssh/id_rsa.pub root@bigdata111

二、安装jdk

  • 通过ftp工具将jdk-8u181-linux-x64.tar.gzhadoop-2.7.3.tar.gz上传到linux/root/tools目录

 

 

 

 

 

  •  xshell中,解压jdk-8u181-linux-x64.tar.gz,执行下面的命令
tar -zxvf jdk-8u181-linux-x64.tar.gz -c /root/training/
  • 设置java的环境变量,使用vi编辑器编辑~/.bash_profile文件。执行下面的命令
vi /root/.bash_profile
  • vi编辑器中,输入以下内容
java_home=/root/training/jdk1.8.0_181
export java_home

path=$java_home/bin:$path
export path

 

 

  •  生效环境变量,执行下面的命令
source /root/.bash_profile 

 

 

 

  •  输入下图中,红框中的命令验证java环境

 

 

 

三、解压hadoop,并设置环境变量

  •  执行下面的命令,解压hadoop-2.7.3.tar.gz
tar -zxvf hadoop-2.7.3.tar.gz -c ~/training/
  • 设置hadoop的环境变量,编辑~/.bash_profile文件,并输入以下内容
hadoop_home=/root/training/hadoop-2.7.3
export hadoop_home

path=$hadoop_home/bin:$hadoop_home/sbin:$path
export path

 

 

  •  生效环境变量
source ~/.bash_profile

四、搭建hadoop的本地模式

  •  进入目录/root/training/hadoop-2.7.3/etc/hadoop
  • 使用vi编辑器编辑文件:hadoop-env.sh
  • 修改java_home
export java_home=/root/training/jdk1.8.0_181

  

 

 

  •  测试hadoop的本地模式,执行mapreduce程序。准备测试数据:vi ~/temp/data.txt

 

 

 

  •  输入下面的数据,并保存退出

 

 

  •  进入目录:/root/training/hadoop-2.7.3/share/hadoop/mapreduce

 

 

  •  执行wordcount任务
hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /root/temp /root/output/wc
  • 根据下图的命令,查看输出结果

 

 

 

五、搭建hadoop的伪分布模式

  •  首先,搭建好hadoop的本地模式
  • 创建目录:/root/training/hadoop-2.7.3/tmp
mkdir /root/training/hadoop-2.7.3/tmp
  • 进入目录:/root/training/hadoop-2.7.3/etc/hadoop
cd /root/training/hadoop-2.7.3/etc/hadoop
  • 修改hdfs-site.xml
<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>

  

 

 

  •  修改core-site.xml
<!--配置namenode的地址-->
<!--9000是rpc通信的端口-->
<property>
	<name>fs.defaultfs</name>
	<value>hdfs://bigdata111:9000</value>
</property>

<!--hdfs对应的操作系统目录-->
<!--默认值是linux的tmp目录-->
<property>
	<name>hadoop.tmp.dir</name>
	<value>/root/training/hadoop-2.7.3/tmp</value>
</property>

  

 

 

  •  修改mapred-site.xml(注意:这个文件默认没有)
<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>

  

 

 

  •  修改yarn-site.xml
<!--配置resourcemanager的地址-->
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>bigdata111</value>
</property>

<!--mapreduce运行的方式是洗牌-->
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>

  

 

 

  •  格式化namenode
hdfs namenode -format

  

 

  •  启动hadoop
start-all.sh

  

 

  •  访问web console
http://192.168.157.111:50070
http://192.168.157.111:8088 

 

《【赵强老师】搭建Hadoop环境.doc》

下载本文的Word格式文档,以方便收藏与打印。