一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

服務器之家:專注于服務器技術及軟件下載分享
分類導航

PHP教程|ASP.NET教程|Java教程|ASP教程|編程技術|正則表達式|C/C++|IOS|C#|Swift|Android|JavaScript|易語言|

服務器之家 - 編程語言 - Java教程 - 3分鐘帶你徹底搞懂 Kafka

3分鐘帶你徹底搞懂 Kafka

2021-06-18 23:34Java極客技術鴨血粉絲 Java教程

實時數據處理,從名字上看,很好理解,就是將數據進行實時處理,在現在流行的微服務開發中,最常用實時數據處理平臺有 RabbitMQ、RocketMQ 等消息中間件。

3分鐘帶你徹底搞懂 Kafka

3分鐘帶你徹底搞懂 Kafka

 一、認識kafka

 

Kafka到底是個啥?用來干嘛的?

官方定義如下:

Kafka is used for building real-time data pipelines and streaming apps. It is horizontally scalable, fault-tolerant, wicked fast, and runs in production in thousands of companies.

翻譯過來,大致的意思就是,這是一個實時數據處理系統,可以橫向擴展,并高可靠!

實時數據處理,從名字上看,很好理解,就是將數據進行實時處理,在現在流行的微服務開發中,最常用實時數據處理平臺有 RabbitMQ、RocketMQ 等消息中間件

這些中間件,最大的特點主要有兩個:

  • 服務解耦
  • 流量削峰

在早期的 web 應用程序開發中,當請求量突然上來了時候,我們會將要處理的數據推送到一個隊列通道中,然后另起一個線程來不斷輪訓拉取隊列中的數據,從而加快程序的運行效率。

3分鐘帶你徹底搞懂 Kafka

但是隨著請求量不斷的增大,并且隊列通道的數據一致處于高負載,在這種情況下,應用程序的內存占用率會非常高,稍有不慎,會出現內存不足,造成程序內存溢出,從而導致服務不可用。

隨著業務量的不斷擴張,在一個應用程序內,使用這種模式已然無法滿足需求,因此之后,就誕生了各種消息中間件,例如 ActiveMQ、RabbitMQ、RocketMQ等中間件。

采用這種模型,本質就是將要推送的數據,不在存放在當前應用程序的內存中,而是將數據存放到另一個專門負責數據處理的應用程序中,從而實現服務解耦。

3分鐘帶你徹底搞懂 Kafka

消息中間件:主要的職責就是保證能接受到消息,并將消息存儲到磁盤,即使其他服務都掛了,數據也不會丟失,同時還可以對數據消費情況做好監控工作。

應用程序:只需要將消息推送到消息中間件,然后啟用一個線程來不斷從消息中間件中拉取數據,進行消費確認即可!

引入消息中間件之后,整個服務開發會變得更加簡單,各負其責。

Kafka 本質其實也是消息中間件的一種,Kafka 出自于 LinkedIn 公司,與 2010 年開源到 github。

LinkedIn 的開發團隊,為了解決數據管道問題,起初采用了 ActiveMQ 來進行數據交換,大約是在 2010 年前后,那時的 ActiveMQ 還遠遠無法滿足 LinkedIn 對數據傳遞系統的要求,經常由于各種缺陷而導致消息阻塞或者服務無法正常訪問,為了能夠解決這個問題,LinkedIn 決定研發自己的消息傳遞系統,Kafka 由此誕生。

在 LinkedIn 公司,Kafka 可以有效地處理每天數十億條消息的指標和用戶活動跟蹤,其強大的處理能力,已經被業界所認可,并成為大數據流水線的首選技術。

二、架構介紹

 

先來看一張圖,下面這張圖就是 kafka 生產與消費的核心架構模型!

3分鐘帶你徹底搞懂 Kafka

如果你看不懂這些概念沒關系,我會帶著大家一起梳理一遍!

  • Producer:Producer 即生產者,消息的產生者,是消息的入口
  • Broker:Broker 是 kafka 一個實例,每個服務器上有一個或多個 kafka 的實例,簡單的理解就是一臺 kafka 服務器,kafka cluster表示集群的意思
  • Topic:消息的主題,可以理解為消息隊列,kafka的數據就保存在topic。在每個 broker 上都可以創建多個 topic 。
  • Partition:Topic的分區,每個 topic 可以有多個分區,分區的作用是做負載,提高 kafka 的吞吐量。同一個 topic 在不同的分區的數據是不重復的,partition 的表現形式就是一個一個的文件夾!
  • Replication:每一個分區都有多個副本,副本的作用是做備胎,主分區(Leader)會將數據同步到從分區(Follower)。當主分區(Leader)故障的時候會選擇一個備胎(Follower)上位,成為 Leader。在kafka中默認副本的最大數量是10個,且副本的數量不能大于Broker的數量,follower和leader絕對是在不同的機器,同一機器對同一個分區也只可能存放一個副本
  • Message:每一條發送的消息主體。
  • Consumer:消費者,即消息的消費方,是消息的出口。
  • Consumer Group:我們可以將多個消費組組成一個消費者組,在 kafka 的設計中同一個分區的數據只能被消費者組中的某一個消費者消費。同一個消費者組的消費者可以消費同一個topic的不同分區的數據,這也是為了提高kafka的吞吐量!
  • Zookeeper:kafka 集群依賴 zookeeper 來保存集群的的元信息,來保證系統的可用性。

簡而言之,kafka 本質就是一個消息系統,與大多數的消息系統一樣,主要的特點如下:

  • 使用推拉模型將生產者和消費者分離
  • 為消息傳遞系統中的消息數據提供持久性,以允許多個消費者
  • 提供高可用集群服務,主從模式,同時支持橫向水平擴展

與 ActiveMQ、RabbitMQ、RocketMQ 不同的地方在于,它有一個**分區Partition**的概念。

這個分區的意思就是說,如果你創建的topic有5個分區,當你一次性向 kafka 中推 1000 條數據時,這 1000 條數據默認會分配到 5 個分區中,其中每個分區存儲 200 條數據。

這樣做的目的,就是方便消費者從不同的分區拉取數據,假如你啟動 5 個線程同時拉取數據,每個線程拉取一個分區,消費速度會非常非常快!

這是 kafka 與其他的消息系統最大的不同!

2.1、發送數據

和其他的中間件一樣,kafka 每次發送數據都是向Leader分區發送數據,并順序寫入到磁盤,然后Leader分區會將數據同步到各個從分區Follower,即使主分區掛了,也不會影響服務的正常運行。

3分鐘帶你徹底搞懂 Kafka

那 kafka 是如何將數據寫入到對應的分區呢?kafka中有以下幾個原則:

1、數據在寫入的時候可以指定需要寫入的分區,如果有指定,則寫入對應的分區

2、如果沒有指定分區,但是設置了數據的key,則會根據key的值hash出一個分區

3、如果既沒指定分區,又沒有設置key,則會輪詢選出一個分區

2.2、消費數據

與生產者一樣,消費者主動的去kafka集群拉取消息時,也是從Leader分區去拉取數據。

這里我們需要重點了解一個名詞:消費組!

3分鐘帶你徹底搞懂 Kafka

考慮到多個消費者的場景,kafka 在設計的時候,可以由多個消費者組成一個消費組,同一個消費組者的消費者可以消費同一個 topic 下不同分區的數據,同一個分區只會被一個消費組內的某個消費者所消費,防止出現重復消費的問題!

但是不同的組,可以消費同一個分區的數據!

你可以這樣理解,一個消費組就是一個客戶端,一個客戶端可以由很多個消費者組成,以便加快消息的消費能力。

但是,如果一個組下的消費者數量大于分區數量,就會出現很多的消費者閑置。

如果分區數量大于一個組下的消費者數量,會出現一個消費者負責多個分區的消費,會出現消費性能不均衡的情況。

因此,在實際的應用中,建議消費者組的consumer的數量與partition的數量保持一致!

三、kafka 安裝

 

光說理論可沒用,下面我們就以 centos7 為例,介紹一下 kafka 的安裝和使用。

kafka 需要 zookeeper 來保存服務實例的元信息,因此在安裝 kafka 之前,我們需要先安裝 zookeeper。

3.1、安裝zookeeper

zookeeper 安裝環境依賴于 jdk,因此我們需要事先安裝 jdk

  1. # 安裝jdk1.8 
  2. yum -y install java-1.8.0-openjdk 

下載zookeeper,并解壓文件包

  1. #在線下載zookeeper 
  2. wget http://mirrors.hust.edu.cn/apache/zookeeper/zookeeper-3.4.12/zookeeper-3.4.12.tar.gz 
  3.  
  4. #解壓 
  5. tar -zxvf zookeeper-3.4.12.tar.gz 

創建數據、日志目錄

  1. #創建數據和日志存放目錄 
  2. cd /usr/zookeeper/ 
  3. mkdir data 
  4. mkdir log 
  5.  
  6. #把conf下的zoo_sample.cfg備份一份,然后重命名為zoo.cfg 
  7. cd conf/ 
  8. cp zoo_sample.cfg zoo.cfg 

配置zookeeper

  1. #編輯zoo.cfg文件 
  2. vim zoo.cfg 

重新配置dataDir和dataLogDir的存儲路徑

3分鐘帶你徹底搞懂 Kafka

最后,啟動 Zookeeper 服務

  1. #進入Zookeeper的bin目錄 
  2. cd zookeeper/zookeeper-3.4.12/bin 
  3.  
  4. #啟動Zookeeper 
  5. ./zkServer.sh start 
  6.  
  7. #查詢Zookeeper狀態 
  8. ./zkServer.sh status 
  9.  
  10. #關閉Zookeeper狀態 
  11. ./zkServer.sh stop 

3.2、安裝kafka

到官網http://kafka.apache.org/downloads.html下載想要的版本,我這里下載是最新穩定版2.8.0。

  1. #下載kafka 安裝包 
  2. wget https://apache.osuosl.org/kafka/2.8.0/kafka-2.8.0-src.tgz 
  3.  
  4. #解壓文件包 
  5. tar -xvf kafka-2.8.0-src.tgz 

按需修改配置文件server.properties(可選)

  1. #進入配置文件夾 
  2. cd  kafka-2.8.0-src/config 
  3.  
  4. #編輯server.properties 
  5. vim server.properties 

server.properties文件內容如下:

  1. broker.id=0 
  2. listeners=PLAINTEXT://localhost:9092 
  3. num.network.threads=3 
  4. num.io.threads=8 
  5. socket.send.buffer.bytes=102400 
  6. socket.receive.buffer.bytes=102400 
  7. socket.request.max.bytes=104857600 
  8. log.dirs=/tmp/kafka-logs 
  9. num.partitions=1 
  10. num.recovery.threads.per.data.dir=1 
  11. offsets.topic.replication.factor=1 
  12. transaction.state.log.replication.factor=1 
  13. transaction.state.log.min.isr=1 
  14. log.retention.hours=168 
  15. log.segment.bytes=1073741824 
  16. log.retention.check.interval.ms=300000 
  17. zookeeper.connect=localhost:2181 
  18. zookeeper.connection.timeout.ms=6000 
  19. group.initial.rebalance.delay.ms=0 

其中有四個重要的參數:

  • broker.id:唯一標識ID
  • listeners=PLAINTEXT://localhost:9092:kafka服務監聽地址和端口
  • log.dirs:日志存儲目錄
  • zookeeper.connect:指定zookeeper服務地址

可根據自己需求修改對應的配置!

3.3、啟動 kafka 服務

  1. # 進入bin腳本目錄 
  2. cd  kafka-2.8.0-src/bin 

啟動 kafka 服務

  1. nohup kafka-server-start.sh ../config/server.properties server.log 2> server.err & 

3.4、創建主題topics

創建一個名為testTopic的主題,它只包含一個分區,只有一個副本:

  1. # 進入bin腳本目錄 
  2. cd  kafka-2.8.0-src/bin 
  3.  
  4. #創建topics 
  5. kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic testTopic 

運行list topic命令,可以看到該主題。

  1. # 進入bin腳本目錄 
  2. cd  kafka-2.8.0-src/bin 
  3.  
  4. #查詢當前kafka上所有的主題 
  5. kafka-topics.sh --list --zookeeper localhost:2181 

輸出內容:

  1. testTopic 

3.5、發送消息

Kafka 附帶一個命令行客戶端,它將從文件或標準輸入中獲取輸入,并將其作為消息發送到 Kafka 集群。默認情況下,每行將作為單獨的消息發送。

運行生產者,然后在控制臺中鍵入一些消息以發送到服務器。

  1. # 進入bin腳本目錄 
  2. cd  kafka-2.8.0-src/bin 
  3.  
  4. #運行一個生產者,向testTopic主題中發消息 
  5. kafka-console-producer.sh --broker-list localhost:9092 --topic testTopic 

輸入兩條內容并回車:

  1. Hello kafka! 
  2. This is a message 

3.5、接受消息

Kafka 還有一個命令行使用者,它會將消息轉儲到標準輸出。

  1. # 進入bin腳本目錄 
  2. cd  kafka-2.8.0-src/bin 
  3.  
  4. #運行一個消費者,從testTopic主題中拉取消息 
  5. kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic testTopic --from-beginning 

輸出結果如下:

  1. Hello kafka! 
  2. This is a message 

四、小結

 

本文主要圍繞 kafka 的架構模型和安裝環境做了一些初步的介紹,難免會有理解不對的地方,歡迎網友批評、吐槽。

由于篇幅原因,會在下期文章中詳細介紹 java 環境下 kafka 應用場景!

原文鏈接:https://mp.weixin.qq.com/s/FSPwdM8YqKeyoPDZVS4RvA

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 四虎传媒 | 莫莉瑞典1977k| 亚洲视频1区 | yy111111免费观看 | 三级无删减高清在线影院 | 视频在线观看高清免费看 | 女张腿男人桶羞羞漫画 | 99精品国产久热在线观看66 | 99热国产这里只有精品 | 91狠狠 | 精品国产一区二区三区在线观看 | 亚洲色图第四色 | 男女男精品网站免费观看 | 精品国产精品人妻久久无码五月天 | 我把校花黑色蕾丝胸罩脱了 | 精东影业传媒全部作品 | 牛牛影院成人免费网页 | 故意短裙公车被强好爽在线播放 | 五月婷婷丁香色 | 亚洲国产欧美在线人成 | 四虎国产欧美成人影院 | 龟甲情感超市全文阅读 小说 | 青青草原国产视频 | 天天舔天天干 | 91看片淫黄大片.在线天堂 | 爱色综合v | 国产农村一级特黄α真人毛片 | 成人精品亚洲人成在线 | 日本视频在线免费观看 | 波多野结衣快播 | 欧美三级做爰全过程 | 国产自精品 | 亚洲天堂一区二区在线观看 | 日韩视频在线免费 | 国产成人愉拍免费视频 | 亚洲精品九色在线网站 | 天天射夜夜爽 | 欧美人禽杂交av片 | 韩剧消失的眼角膜免费完整版 | 草草影院在线 | free性日本 |