一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

服務器之家:專注于服務器技術及軟件下載分享
分類導航

云服務器|WEB服務器|FTP服務器|郵件服務器|虛擬主機|服務器安全|DNS服務器|服務器知識|Nginx|IIS|Tomcat|

服務器之家 - 服務器技術 - 服務器知識 - 基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

2020-07-28 18:32heibaiying 服務器知識

Hadoop 高可用 (High Availability) 分為 HDFS 高可用和 YARN 高可用,兩者的實現基本類似,但 HDFS NameNode 對數據存儲及其一致性的要求比 YARN ResourceManger 高得多,所以它的實現也更加復雜,下面給大家詳細介紹,感興趣的一起看看吧

一、高可用簡介

 

hadoop 高可用 (high availability) 分為 hdfs 高可用和 yarn 高可用,兩者的實現基本類似,但 hdfs namenode 對數據存儲及其一致性的要求比 yarn resourcemanger 高得多,所以它的實現也更加復雜,故下面先進行講解:

1.1 高可用整體架構

hdfs 高可用架構如下:

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

圖片引用自:https://www.edureka.co/blog/how-to-set-up-hadoop-cluster-with-hdfs-high-availability/

hdfs 高可用架構主要由以下組件所構成:

  • active namenode 和 standby namenode:兩臺 namenode 形成互備,一臺處于 active 狀態,為主 namenode,另外一臺處于 standby 狀態,為備 namenode,只有主 namenode 才能對外提供讀寫服務。
  • 主備切換控制器 zkfailovercontroller:zkfailovercontroller 作為獨立的進程運行,對 namenode 的主備切換進行總體控制。zkfailovercontroller 能及時檢測到 namenode 的健康狀況,在主 namenode 故障時借助 zookeeper 實現自動的主備選舉和切換,當然 namenode 目前也支持不依賴于 zookeeper 的手動主備切換。
  • zookeeper 集群:為主備切換控制器提供主備選舉支持。
  • 共享存儲系統:共享存儲系統是實現 namenode 的高可用最為關鍵的部分,共享存儲系統保存了 namenode 在運行過程中所產生的 hdfs 的元數據。主 namenode 和 namenode 通過共享存儲系統實現元數據同步。在進行主備切換的時候,新的主 namenode 在確認元數據完全同步之后才能繼續對外提供服務。
  • datanode 節點:除了通過共享存儲系統共享 hdfs 的元數據信息之外,主 namenode 和備 namenode 還需要共享 hdfs 的數據塊和 datanode 之間的映射關系。datanode 會同時向主 namenode 和備 namenode 上報數據塊的位置信息。

1.2 基于 qjm 的共享存儲系統的數據同步機制分析

目前 hadoop 支持使用 quorum journal manager (qjm) 或 network file system (nfs) 作為共享的存儲系統,這里以 qjm 集群為例進行說明:active namenode 首先把 editlog 提交到 journalnode 集群,然后 standby namenode 再從 journalnode 集群定時同步 editlog,當 active namenode 宕機后, standby namenode 在確認元數據完全同步之后就可以對外提供服務。

需要說明的是向 journalnode 集群寫入 editlog 是遵循 “過半寫入則成功” 的策略,所以你至少要有3個 journalnode 節點,當然你也可以繼續增加節點數量,但是應該保證節點總數是奇數。同時如果有 2n+1 臺 journalnode,那么根據過半寫的原則,最多可以容忍有 n 臺 journalnode 節點掛掉。

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

1.3 namenode 主備切換

namenode 實現主備切換的流程下圖所示:

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解
  1. healthmonitor 初始化完成之后會啟動內部的線程來定時調用對應 namenode 的 haserviceprotocol rpc 接口的方法,對 namenode 的健康狀態進行檢測。

  2. healthmonitor 如果檢測到 namenode 的健康狀態發生變化,會回調 zkfailovercontroller 注冊的相應方法進行處理。

  3. 如果 zkfailovercontroller 判斷需要進行主備切換,會首先使用 activestandbyelector 來進行自動的主備選舉。

  4. activestandbyelector 與 zookeeper 進行交互完成自動的主備選舉。

  5. activestandbyelector 在主備選舉完成后,會回調 zkfailovercontroller 的相應方法來通知當前的 namenode 成為主 namenode 或備 namenode。

  6. zkfailovercontroller 調用對應 namenode 的 haserviceprotocol rpc 接口的方法將 namenode 轉換為 active 狀態或 standby 狀態。

1.4 yarn高可用

yarn resourcemanager 的高可用與 hdfs namenode 的高可用類似,但是 resourcemanager 不像 namenode ,沒有那么多的元數據信息需要維護,所以它的狀態信息可以直接寫到 zookeeper 上,并依賴 zookeeper 來進行主備選舉。

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

二、集群規劃

 

按照高可用的設計目標:需要保證至少有兩個 namenode (一主一備) 和 兩個 resourcemanager (一主一備) ,同時為滿足“過半寫入則成功”的原則,需要至少要有3個 journalnode 節點。這里使用三臺主機進行搭建,集群規劃如下:

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

三、前置條件

 

四、集群配置

 

4.1 下載并解壓

下載hadoop。這里我下載的是cdh版本hadoop,下載地址為:http://archive.cloudera.com/cdh5/cdh/5/

?
1
# tar -zvxf hadoop-2.6.0-cdh5.15.2.tar.gz

4.2 配置環境變量

編輯profile文件:

?
1
# vim /etc/profile

增加如下配置:

?
1
2
export hadoop_home=/usr/app/hadoop-2.6.0-cdh5.15.2
export  path=${hadoop_home}/bin:$path

執行source命令,使得配置立即生效:

?
1
# source /etc/profile

4.3 修改配置

進入${hadoop_home}/etc/hadoop目錄下,修改配置文件。各個配置文件內容如下:

1. hadoop-env.sh

?
1
2
# 指定jdk的安裝位置
export java_home=/usr/java/jdk1.8.0_201/

2. core-site.xml

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
<configuration>
    <property>
        <!-- 指定namenode的hdfs協議文件系統的通信地址 -->
        <name>fs.defaultfs</name>
        <value>hdfs://hadoop001:8020</value>
    </property>
    <property>
        <!-- 指定hadoop集群存儲臨時文件的目錄 -->
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/tmp</value>
    </property>
    <property>
        <!-- zookeeper集群的地址 -->
        <name>ha.zookeeper.quorum</name>
        <value>hadoop001:2181,hadoop002:2181,hadoop002:2181</value>
    </property>
    <property>
        <!-- zkfc連接到zookeeper超時時長 -->
        <name>ha.zookeeper.session-timeout.ms</name>
        <value>10000</value>
    </property>
</configuration>

3. hdfs-site.xml

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
<configuration>
    <property>
        <!-- 指定hdfs副本的數量 -->
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <!-- namenode節點數據(即元數據)的存放位置,可以指定多個目錄實現容錯,多個目錄用逗號分隔 -->
        <name>dfs.namenode.name.dir</name>
        <value>/home/hadoop/namenode/data</value>
    </property>
    <property>
        <!-- datanode節點數據(即數據塊)的存放位置 -->
        <name>dfs.datanode.data.dir</name>
        <value>/home/hadoop/datanode/data</value>
    </property>
    <property>
        <!-- 集群服務的邏輯名稱 -->
        <name>dfs.nameservices</name>
        <value>mycluster</value>
    </property>
    <property>
        <!-- namenode id列表-->
        <name>dfs.ha.namenodes.mycluster</name>
        <value>nn1,nn2</value>
    </property>
    <property>
        <!-- nn1的rpc通信地址 -->
        <name>dfs.namenode.rpc-address.mycluster.nn1</name>
        <value>hadoop001:8020</value>
    </property>
    <property>
        <!-- nn2的rpc通信地址 -->
        <name>dfs.namenode.rpc-address.mycluster.nn2</name>
        <value>hadoop002:8020</value>
    </property>
    <property>
        <!-- nn1的http通信地址 -->
        <name>dfs.namenode.http-address.mycluster.nn1</name>
        <value>hadoop001:50070</value>
    </property>
    <property>
        <!-- nn2的http通信地址 -->
        <name>dfs.namenode.http-address.mycluster.nn2</name>
        <value>hadoop002:50070</value>
    </property>
    <property>
        <!-- namenode元數據在journalnode上的共享存儲目錄 -->
        <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://hadoop001:8485;hadoop002:8485;hadoop003:8485/mycluster</value>
    </property>
    <property>
        <!-- journal edit files的存儲目錄 -->
        <name>dfs.journalnode.edits.dir</name>
        <value>/home/hadoop/journalnode/data</value>
    </property>
    <property>
        <!-- 配置隔離機制,確保在任何給定時間只有一個namenode處于活動狀態 -->
        <name>dfs.ha.fencing.methods</name>
        <value>sshfence</value>
    </property>
    <property>
        <!-- 使用sshfence機制時需要ssh免密登錄 -->
        <name>dfs.ha.fencing.ssh.private-key-files</name>
        <value>/root/.ssh/id_rsa</value>
    </property>
    <property>
        <!-- ssh超時時間 -->
        <name>dfs.ha.fencing.ssh.connect-timeout</name>
        <value>30000</value>
    </property>
    <property>
        <!-- 訪問代理類,用于確定當前處于active狀態的namenode -->
        <name>dfs.client.failover.proxy.provider.mycluster</name>
        <value>org.apache.hadoop.hdfs.server.namenode.ha.configuredfailoverproxyprovider</value>
    </property>
    <property>
        <!-- 開啟故障自動轉移 -->
        <name>dfs.ha.automatic-failover.enabled</name>
        <value>true</value>
    </property>
</configuration>

4. yarn-site.xml

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
<configuration>
    <property>
        <!--配置nodemanager上運行的附屬服務。需要配置成mapreduce_shuffle后才可以在yarn上運行mapreduce程序。-->
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <!-- 是否啟用日志聚合(可選) -->
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <!-- 聚合日志的保存時間(可選) -->
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>86400</value>
    </property>
    <property>
        <!-- 啟用rm ha -->
        <name>yarn.resourcemanager.ha.enabled</name>
        <value>true</value>
    </property>
    <property>
        <!-- rm集群標識 -->
        <name>yarn.resourcemanager.cluster-id</name>
        <value>my-yarn-cluster</value>
    </property>
    <property>
        <!-- rm的邏輯id列表 -->
        <name>yarn.resourcemanager.ha.rm-ids</name>
        <value>rm1,rm2</value>
    </property>
    <property>
        <!-- rm1的服務地址 -->
        <name>yarn.resourcemanager.hostname.rm1</name>
        <value>hadoop002</value>
    </property>
    <property>
        <!-- rm2的服務地址 -->
        <name>yarn.resourcemanager.hostname.rm2</name>
        <value>hadoop003</value>
    </property>
    <property>
        <!-- rm1 web應用程序的地址 -->
        <name>yarn.resourcemanager.webapp.address.rm1</name>
        <value>hadoop002:8088</value>
    </property>
    <property>
        <!-- rm2 web應用程序的地址 -->
        <name>yarn.resourcemanager.webapp.address.rm2</name>
        <value>hadoop003:8088</value>
    </property>
    <property>
        <!-- zookeeper集群的地址 -->
        <name>yarn.resourcemanager.zk-address</name>
        <value>hadoop001:2181,hadoop002:2181,hadoop003:2181</value>
    </property>
    <property>
        <!-- 啟用自動恢復 -->
        <name>yarn.resourcemanager.recovery.enabled</name>
        <value>true</value>
    </property>
    <property>
        <!-- 用于進行持久化存儲的類 -->
        <name>yarn.resourcemanager.store.class</name>
        <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.zkrmstatestore</value>
    </property>
</configuration>

5. mapred-site.xml

?
1
2
3
4
5
6
7
<configuration>
    <property>
        <!--指定mapreduce作業運行在yarn上-->
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

5. slaves

配置所有從屬節點的主機名或ip地址,每行一個。所有從屬節點上的datanode服務和nodemanager服務都會被啟動。

?
1
2
3
hadoop001
hadoop002
hadoop003

4.4 分發程序

將hadoop安裝包分發到其他兩臺服務器,分發后建議在這兩臺服務器上也配置一下hadoop的環境變量。

?
1
2
3
4
# 將安裝包分發到hadoop002
scp -r /usr/app/hadoop-2.6.0-cdh5.15.2/  hadoop002:/usr/app/
# 將安裝包分發到hadoop003
scp -r /usr/app/hadoop-2.6.0-cdh5.15.2/  hadoop003:/usr/app/

五、啟動集群

 

5.1 啟動zookeeper

分別到三臺服務器上啟動zookeeper服務:

?
1
zkserver.sh start

5.2 啟動journalnode

分別到三臺服務器的的${hadoop_home}/sbin目錄下,啟動journalnode進程:

?
1
hadoop-daemon.sh start journalnode

5.3 初始化namenode

hadop001上執行namenode初始化命令:

?
1
hdfs namenode -format

執行初始化命令后,需要將namenode元數據目錄的內容,復制到其他未格式化的namenode上。元數據存儲目錄就是我們在hdfs-site.xml中使用dfs.namenode.name.dir屬性指定的目錄。這里我們需要將其復制到hadoop002上:

?
1
scp -r /home/hadoop/namenode/data hadoop002:/home/hadoop/namenode/

5.4 初始化ha狀態

在任意一臺namenode上使用以下命令來初始化zookeeper中的ha狀態:

?
1
hdfs zkfc -formatzk

5.5 啟動hdfs

進入到hadoop001${hadoop_home}/sbin目錄下,啟動hdfs。此時hadoop001hadoop002上的namenode服務,和三臺服務器上的datanode服務都會被啟動:

?
1
start-dfs.sh

5.6 啟動yarn

進入到hadoop002${hadoop_home}/sbin目錄下,啟動yarn。此時hadoop002上的resourcemanager服務,和三臺服務器上的nodemanager服務都會被啟動:

?
1
start-yarn.sh

需要注意的是,這個時候hadoop003上的resourcemanager服務通常是沒有啟動的,需要手動啟動:

?
1
yarn-daemon.sh start resourcemanager

六、查看集群

 

6.1 查看進程

成功啟動后,每臺服務器上的進程應該如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
[root@hadoop001 sbin]# jps
4512 dfszkfailovercontroller
3714 journalnode
4114 namenode
3668 quorumpeermain
5012 datanode
4639 nodemanager
 
 
[root@hadoop002 sbin]# jps
4499 resourcemanager
4595 nodemanager
3465 quorumpeermain
3705 namenode
3915 dfszkfailovercontroller
5211 datanode
3533 journalnode
 
 
[root@hadoop003 sbin]# jps
3491 journalnode
3942 nodemanager
4102 resourcemanager
4201 datanode
3435 quorumpeermain

6.2 查看web ui

hdfs和yarn的端口號分別為500708080,界面應該如下:

此時hadoop001上的namenode處于可用狀態:

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

而hadoop002上的namenode則處于備用狀態:

 

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

 

hadoop002上的resourcemanager處于可用狀態:

 

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

 

hadoop003上的resourcemanager則處于備用狀態:

 

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

 

同時界面上也有journal manager的相關信息:

 

基于 ZooKeeper 搭建 Hadoop 高可用集群 的教程圖解

七、集群的二次啟動

 

上面的集群初次啟動涉及到一些必要初始化操作,所以過程略顯繁瑣。但是集群一旦搭建好后,想要再次啟用它是比較方便的,步驟如下(首選需要確保zookeeper集群已經啟動):

hadoop001啟動 hdfs,此時會啟動所有與 hdfs 高可用相關的服務,包括 namenode,datanode 和 journalnode:

?
1
start-dfs.sh

hadoop002啟動yarn:

?
1
start-yarn.sh

這個時候hadoop003上的resourcemanager服務通常還是沒有啟動的,需要手動啟動:

?
1
yarn-daemon.sh start resourcemanager

參考資料

 

以上搭建步驟主要參考自官方文檔:

總結

以上所述是小編給大家介紹的基于 ZooKeeper 搭建 高可用集群 的教程圖解,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對服務器之家網站的支持!
如果你覺得本文對你有幫助,歡迎轉載,煩請注明出處,謝謝!

原文鏈接:https://www.cnblogs.com/heibaiying/archive/2019/06/23/11071857.html

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 被调教的校花 | 亚欧洲乱码专区视频 | 亚洲经典激情春色另类 | 亚洲第一区欧美日韩精品 | 变态女王麻麻小说在线阅读 | 校花在公车上被内射好舒 | 日b视频免费| 免费观看无遮挡www的小视频 | 亚洲精品成人在线 | 6080伦理久久精品亚洲 | 边摸边吃奶边做爽gif动态图 | youzljzljzljzlj96| 希岛爱理aⅴ在线中文字幕 午夜综合网 | 男男18视频免费网站 | 久久国产综合精品欧美 | 美女撒尿无遮挡免费中国 | 久热这里只有精品99国产6 | 国产第7页 | 5x社区发源地最新地址 | 17岁俄罗斯csgo | 男人日女人的逼视频 | 亚洲欧美日本在线观看 | 国偷盗摄自产福利一区在线 | 操男孩| 性夜夜春夜夜爽AA片A | 好大~好爽~再进去一点 | julianann在厨房 | 国产精品免费综合一区视频 | 国产高清视频免费最新在线 | 日韩在线一区 | 精品视频久久久久 | 亚洲理论视频 | 日韩资源在线 | 1769亚洲欧美资源站 | 国产精品99久久久 | 丝袜足液精子免费视频 | 日本高清免费不卡在线 | 好湿好滑好硬好爽好深视频 | 国产精品一区二区久久不卡 | 欧美四区 | 四虎精品免费视频 |