Hadoop完全分布式搭建

完全分布式环境安装(完整亲测)

一、安装linux系统

Hadoop需要至少3个节点才能算是完全分布式环境,需要在虚拟机中安装3个 linux操作系统,比较快速的方式是通过安装一个操作系统,再复制2个操作系统。

这一步也可以在最后做,完全配置好一台linux系统环境之后再克隆,会节省一些时间,看个人的习惯。

过程如下:

1、使用VMware的克隆功能

2、选择创建完成克隆

3、输入主机名称,完成克隆操作。

主机列表如下:

主机名 IP地址 用途 master 192.168.1.101 namenode、secondorynamenode、jobtracker任务 node1 192.168.1.102 slave结点 node2 192.168.1.103 slave结点(冗余节点) 二、配置每台机器IP地址

最好配置每台机器的ip地址,否则每次开机地址都可能发生变化。

通过ifconfig命令查看当前IP地址(因为我使用的是centerOS7.5 所以显示eno16777736 其实和eth0是一样的)

修改IP地址

登陆图形界面修改固定IP 三、配置hosts文件

三台机器都配置相同的hosts

同时需要把主机名改掉

四、增加Hadoop允许账号

[root@localhost ~]# groupadd hadoop //添加组

[root@localhost ~]# useradd -s /bin/bash grid -g hadoop -G root //添加用户 属于hadoop和root组

[root@localhost ~]# passwd grid //添加密码 更改用户 grid 的密码 。 新的 密码:

无效的密码: 密码少于 8 个字符 重新输入新的 密码:

passwd:所有的身份验证令牌已经成功更新。

联系客服:779662525#qq.com(#替换为@) 苏ICP备20003344号-4