博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
HA机制下的hadoop配置
阅读量:6902 次
发布时间:2019-06-27

本文共 7822 字,大约阅读时间需要 26 分钟。


[版权申明:本文系作者原创,转载请注明出处]

文章出处:

作者: 朱培    ID:sdksdk0

--------------------------------------------------

在我之前的一篇博客中,已经分享了关于hadoop的基本配置,地址:,但是那个是使用与初学者学习和测试的,今天用分享的这个比上次那个要复杂一些,主要是加了zookeeper和两台namenode的配置,同时使用这种方式,可以解决服务器的脑裂问题。

一、hdfs的HA机制

NameNode服务器一台是ACTIVE和一台是STANDBY。通过Qjournal(日志管理系统) 使用zkfc(基于zookeeper失败切换控制)

 

如何防止脑裂现象: 当ACTIVE假死的时候,STANDBY的zkfc会发出指令 ssh kill-9 namenode 返回0(成功杀死,返回1则杀死失败)的时候再去通知第二台namenode去切换状态。 若无返回码的时候(超时未响应),则启动proweroff.sh(用户自定义的脚本)给第一台namenode断电,返回0则执行正常,然后去切换。

当第一台机器断电的时候(指活跃状态的namenode和zkfc都断电了),则第2台的zkfc会执行proweroff.sh。

关键词: 1、有两个namenode,分别是active和standby.

2、有两个zkfc来监控和管理两个namenode的状态

3、元数据日志edits由一个专门的日志系统负责管理--qjoournal

4、zkfc及qjournal的功能都要依赖于zookeeper的服务来实现

5、zkfc做状态切换时有两个防止脑裂的机制--ssh和shell脚本。

二、Hadoop集群的配置

打开hadoop的安装目录,如果还不会下载或者基础都不会使用的请看文章开头我提供的链接,请先学习基础配置。 我这里主要使用了5台虚拟机来模拟搭建这整个集群环境。

            主机名       IP地址                       主要功能

  • ubuntu1     192.168.44.128         namenode zkfc ResourceManager
  • ubuntu2     192.168.44.131         namenode zkfc ResourceManager
  • ubuntu3     192.168.44.132         DataNode、NodeManager、JournalNode、QuorumPeerMain
  • ubuntu4     192.168.44.133         DataNode、NodeManager、JournalNode、QuorumPeerMain
  • ubuntu5     192.168.44.134         DataNode、NodeManager、JournalNode、QuorumPeerMain

我们可以先来配置ubuntu1,然后剩下的就scp到其他机器上就可以了 core-site.xml

fs.defaultFS
hdfs://ns1/
hadoop.tmp.dir
/home/admin1/hadoop/HAhadoop/tmp/hadoop
ha.zookeeper.quorum
ubuntu3:2181,ubuntu4:2181,ubuntu5:2181

 

hdfs-site.xml

1 
2
3
4
dfs.nameservices
5
ns1
6
7
8
9
dfs.ha.namenodes.ns1
10
nn1,nn2
11
12
13
14
dfs.namenode.rpc-address.ns1.nn1
15
ubuntu1:9000
16
17
18
19
dfs.namenode.http-address.ns1.nn1
20
ubuntu1:50070
21
22
23
24
dfs.namenode.rpc-address.ns1.nn2
25
ubuntu2:9000
26
27
28
29
dfs.namenode.http-address.ns1.nn2
30
ubuntu2:50070
31
32
33
34
dfs.namenode.shared.edits.dir
35
qjournal://ubuntu3:8485;ubuntu4:8485;ubuntu5:8485/ns1
36
37
38
39
dfs.journalnode.edits.dir
40
/home/admin1/hadoop/HAhadoop/journaldata
41
42
43
44
dfs.ha.automatic-failover.enabled
45
true
46
47
48
49
dfs.client.failover.proxy.provider.ns1
50
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
51
52
53
54
dfs.ha.fencing.methods
55
56 sshfence57 shell(/bin/true)58
59
60
61
62
dfs.ha.fencing.ssh.private-key-files
63
/home/admin1/.ssh/id_rsa
64
65
66
67
dfs.ha.fencing.ssh.connect-timeout
68
30000
69
70

 

mapred-site.xml

1   
2
3
4
mapreduce.framework.name
5
yarn
6
7

 

yarn-site.xml

1 
2 3
4
5
yarn.resourcemanager.ha.enabled
6
true
7
8
9
10
yarn.resourcemanager.cluster-id
11
yrc
12
13
14
15
yarn.resourcemanager.ha.rm-ids
16
rm1,rm2
17
18
19
20
yarn.resourcemanager.hostname.rm1
21
ubuntu1
22
23
24
yarn.resourcemanager.hostname.rm2
25
ubuntu2
26
27
28
29
yarn.resourcemanager.zk-address
30
ubuntu3:2181,ubuntu4:2181,ubuntu5:2181
31
32
33
yarn.nodemanager.aux-services
34
mapreduce_shuffle
35
36

 

slaves

1 ubuntu32 ubuntu43 ubuntu5

 

还有就是修改一下主机名。 sudo vi /etc/hostname ubuntu1 以及hosts的内容:

192.168.44.128  ubuntu1192.168.44.131  ubuntu2192.168.44.132  ubuntu3192.168.44.133  ubuntu4192.168.44.134  ubuntu5

 

注意:一定要把原来的那两天127.0.1.1 这一条给删除掉,一个hosts文件中,不能出现主机名相同和ip地址不同的情况,我开始就是因为这个因为,折腾了很久,datanode就是搭建不起来。

启动过程:

1、启动zookeeper集群 分别在ubuntu3,4,5中输入 开启服务: bin/zkServer.sh start 查看状态: bin/zkServer.sh status

2、启动journalnode 分别在ubuntu3,4,5中输入 sbin/hadoop-daemon.sh start journalnode 运行jps命令检验,多了JournalNode进程

3、格式化HDFS

  在ubuntu1上执行命令:

bin/hdfs namenode -format#格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/HAhadoop/tmp,然后将/HAhadoop/tmp拷贝到ubuntu2的/HAhadoop/下。

  

scp -r tmp/ ubuntu2:/home/admin1/hadoop/HAhadoop/

 

4、格式化ZKFC(在ubuntu1上执行即可) bin/hdfs zkfc -formatZK

5、启动HDFS(在ubuntu1上执行) sbin/start-dfs.sh

6、启动YARN(在ubuntu1上执行) sbin/start-yarn.sh

如果是在ubuntu1中启动的话,那么默认的浏览窗口会是这样: ubuntu2是Active的,ubuntu1是一个Standby状态,

 

 

 

这个时候如果你去ubuntu2里面把这个namenode进程杀死的话,ubuntu1会自动切换为Active,ubuntu2会变成无法连接。

 

 

 

这样就实现了服务器的动态切换,这样万一有一个namenode宕机了,剩下了一台会自动切换。这种使用了zookeeper切换的就是前面说到的HA机制了。

 

当整个集群搭建完毕的效果就会是这样,如果用jps去查看一下:

在两个namenode节点上面会这样显示:

在剩下的3个datanode上面会这样:

 

可以通过访问ubuntu2:8088/Cluster来查看:活跃节点是3个

到这里整个集群环境就搭建完毕了,当然如果你电脑配置不是很高的话,可以选择把datanode直接放在namenode一起配置也可以。

 

转载于:https://www.cnblogs.com/sdksdk0/p/5585355.html

你可能感兴趣的文章
AtcoderExaWizards 2019题解
查看>>
Manacher算法学习笔记
查看>>
Alpha冲刺&总结报告(12/12)(麻瓜制造者)
查看>>
抓取网页链接,并保存到本地
查看>>
017_异步处理_Queueable
查看>>
LeakCanary上传 leak trace 到服务器
查看>>
Java并发编程(十二)Callable、Future和FutureTask
查看>>
android.support不统一的问题
查看>>
margin与padding
查看>>
注解式开发spring定时器
查看>>
LeetCode - 35. Search Insert Position
查看>>
平衡二叉树(AVL树)
查看>>
maven
查看>>
JDK环境变量解析
查看>>
poj2229
查看>>
走近docker--容器生态系统
查看>>
Navicat for Oracle 绿色版 连接 Oracle 12c
查看>>
如何修改hosts并保存
查看>>
flask框架----整合Flask中的目录结构
查看>>
OpenGL画三维分形
查看>>