服务器多节点测试

目录

(1)修改主机名

(2)配置hosts映射

(3)创建用户 并赋予密码

(4)进入用户并切换至用户根目录

(6)将hadoop压缩包 解压至 app文件夹中

(7)给用户配置 ssh免密

(8)配置 java 环境变量, hadoop 环境变量

(9) 修改hadoop 配置文件 ,与hadoop配置中java路径的配置

(10) 配置 workers 文件

(11)启动前 格式化 namenode

(12)启动 hadoop

(13)通过WEB端访问 hdfs

(14)测试 hadoop 自带 案例

(15)测试

(16)查看一下测试出现的文件内容

(17) 关闭hadoop


— 使用云服务器进行单节点服务器搭建

(1)修改主机名

在root用户下修改主机名

[root]# vim /etc/hostname

按 i 进入编辑 设置主机名为 hadoop

:wq 进行保存

(2)配置hosts映射

root 用户下

[root]# vim /etc/hosts

ip 为内网ip

(3)创建用户 并赋予密码

[root]# passwd peizk
[root]# useradd peizk 

如下:

(4)进入用户并切换至用户根目录

[root]# su peizk [peizk]# cd ~

创建 相应的后续所用目录

[peizk]# mkdir sourcecode software app log lib data tmp shell

将hadoop安装包,java安装包 放入 software文件夹

(6)将hadoop压缩包 解压至 app文件夹中

[peizk@hadoop software]$ tar -zxvf jdk-8u212-linux-x64.tar.gz -C ../app [peizk@hadoop software]$ tar -zxvf hadoop-3.1.3.tar.gz -C ../app 

(7)给用户配置 ssh免密

[peizk@hadoop ~]$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa [peizk@hadoop ~]$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys [peizk@hadoop ~]$ chmod 0600 ~/.ssh/authorized_keys 

(8)配置 java 环境变量, hadoop 环境变量

登录root用户

进入

[root@hadoop hadoop-3.1.3]# vim /etc/profile 

在最后出加入如下语句

#JAVA_HOME export JAVA_HOME=/home/peizk/app/jdk1.8.0_212 export PATH=$PATH:$JAVA_HOME/bin #HADOOP_HOME export HADOOP_HOME=/home/peizk/app/hadoop-3.1.3 export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin 

wq 进行保存

对配置文件进行 source

[root@hadoop hadoop-3.1.3]# source /etc/profile 

接着 输入 java hadoop 就可以看到 有显示 证明配置成功

(9) 修改hadoop 配置文件 ,与hadoop配置中java路径的配置

登录 peizk 用户 并进入 hadoop配置文件目录

[peizk@hadoop ~]$ cd app/hadoop-3.1.3/etc/hadoop/ 

修改文件 core-site.xml

[peizk@hadoop hadoop]$ vim core-site.xml 

在 <configuration> </configuration> 中加入如下内容

<property> <name>fs.defaultFS</name> <value>hdfs://hadoop:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/peizk/tmp</value> </property>

修改文件 hdfs-site.xml

[peizk@hadoop hadoop]$ vim hdfs-site.xml 

在 <configuration> </configuration> 中加入如下内容

 <property> <name>dfs.replication</name> <value>1</value> </property> 

修改文件 hadoop-env.sh

[peizk@hadoop hadoop]$ vim hadoop-env.sh 

添加 如下语句

 export JAVA_HOME=/home/peizk/app/jdk1.8.0_212 

(10) 配置 workers 文件

[peizk@hadoop hadoop]$ vim workers 

修改为 hadoop

(11)启动前 格式化 namenode

进入目录

[peizk@hadoop ~]$ cd app/hadoop-3.1.3/ 

执行命令

[peizk@hadoop hadoop-3.1.3]$ hdfs namenode -format 

可以在家目录下的tmp中相应的文件,证明格式化成功

注意:每次格式化前都要先将原本的tmp下数据及logs删除,避免版本号不对应出现错误

(12)启动 hadoop

[peizk@hadoop hadoop-3.1.3]$ sbin/start-dfs.sh 

显示如下:

使用 jps 查看

(13)通过WEB端访问 hdfs

首先 打开服务器 9870端口

接着使用 外网ip:端口 访问成功

(14)测试 hadoop 自带 案例

首先 在hdfs 中创建 几个文件夹

[peizk@hadoop hadoop-3.1.3]$ hadoop fs -mkdir -p /user/peizk 
[peizk@hadoop hadoop-3.1.3]$ hadoop fs -mkdir /input 

往 input 下 放一些文件

[peizk@hadoop hadoop]$ hadoop fs -put *.xml /input 

如下

(15)测试

[peizk@hadoop hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar grep /input /output 'dfs[a-z.]+' 

执行成功 页面出现output

(16)查看一下测试出现的文件内容

在家目录下新建一个output文件夹

然后

[peizk@hadoop ~]$ hadoop fs -get /output output/ 

如下:

使用 cat 命令查看

[peizk@hadoop ~]$ cat output/output/part-r-00000 

如下:

(17) 关闭hadoop

[peizk@hadoop hadoop-3.1.3]$ sbin/stop-dfs.sh 

使用jps查看 关闭成功

原文链接:https://www.csdn.net/tags/MtTacgysNDc3ODMtYmxvZwO0O0OO0O0O.html

原创文章,作者:优速盾-小U,如若转载,请注明出处:https://www.cdnb.net/bbs/archives/8020

(0)
上一篇 2022年9月27日
下一篇 2022年9月27日

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

优速盾注册领取大礼包www.cdnb.net
/sitemap.xml