Apache Kafka系列文章
1、kafka(2.12-3.0.0)介绍、部署及验证、基准测试
2、java调用kafka api
3、kafka重要概念介紹及示例
4、kafka分区、副本介绍及示例
5、kafka监控工具Kafka-Eagle介绍及使用
文章目录
Apache Kafka系列文章一、Kafka-Eagle简介二、安装Kafka-Eagle1、开启Kafka JMX端口2、安装Kafka-Eagle1)、 安装JDK,并配置好JAVA_HOME。2)、解压3)、配置 kafka_eagle 环境变量。4)、 配置 kafka_eagle5)、启动 三、验证
本文主要介绍了kafka监控工具Kafka-Eagle的使用。
本文依赖:kafka、zookeeper部署完成。
本分分为三个部分介绍,即Kafka-Eagle介绍、部署和验证。
一、Kafka-Eagle简介
早期,要监控Kafka集群我们可以使用Kafka Monitor以及Kafka Manager,但随着监控的功能要求、性能要求的提高,这些工具已经无法满足。
Kafka Eagle是一款结合了目前大数据Kafka监控工具的特点,重新研发的一块开源免费的Kafka集群优秀的监控工具。它可以非常方便的监控生产环境中的offset、lag变化、partition分布、owner等。
官网地址:https://www.kafka-eagle.org/
二、安装Kafka-Eagle
1、开启Kafka JMX端口
JMX(Java Management Extensions)是一个为应用程序植入管理功能的框架。JMX是一套标准的代理和服务,实际上,用户可以在任何Java应用程序中使用这些代理和服务实现管理。很多的一些软件都提供了JMX接口,来实现一些管理、监控功能。
开启Kafka JMX在启动Kafka的脚本前,添加:
cd /usr/local/bigdata/kafka_2.12-3.0.0/binexport JMX_PORT=9988; nohup kafka-server-start.sh /usr/local/bigdata/kafka_2.12-3.0.0/config/server.properties &
修改一键启动脚本,增加export JMX_PORT=9988 ,具体如下: [alanchan@server1 onekeystart]$ cat kafkaCluster.sh #!/bin/shcase $1 in "start"){for host in server1 server2 server3 do ssh $host "source /etc/profile;export JMX_PORT=9988; nohup ${KAFKA_HOME}/bin/kafka-server-start.sh ${KAFKA_HOME}/config/server.properties > /dev/null 2>&1 &" echo "$host kafka is running..." sleep 1.5sdone };;"stop"){for host in server1 server2 server3do ssh $host "source /etc/profile; nohup ${KAFKA_HOME}/bin/kafka-server-stop.sh > /dev/null 2>&1 &" echo "$host kafka is stopping..." sleep 1.5sdone};;esac
2、安装Kafka-Eagle
1)、 安装JDK,并配置好JAVA_HOME。
2)、解压
将kafka_eagle上传,并解压到 /usr/local/bigdata 目录中
cd /usr/local/tools/tar -xvzf kafka-eagle-bin-3.0.1.tar.gz -C /usr/local/bigdata[alanchan@server1 tools]$ tar -xvzf kafka-eagle-bin-3.0.1.tar.gz -C /usr/local/bigdatakafka-eagle-bin-3.0.1/kafka-eagle-bin-3.0.1/efak-web-3.0.1-bin.tar.gzcd /usr/local/bigdata/kafka-eagle-bin-3.0.1tar -xvzf efak-web-3.0.1-bin.tar.gz[alanchan@server1 kafka-eagle-bin-3.0.1]$ ll总用量 87844drwxr-xr-x 8 alanchan root 4096 1月 16 07:50 efak-web-3.0.1-rw-r--r-- 1 alanchan root 89947836 9月 6 04:45 efak-web-3.0.1-bin.tar.gz[alanchan@server1 kafka-eagle-bin-3.0.1]$ cd efak-web-3.0.1[alanchan@server1 efak-web-3.0.1]$ ll总用量 24drwxr-xr-x 2 alanchan root 4096 1月 16 07:50 bindrwxr-xr-x 2 alanchan root 4096 1月 16 07:50 confdrwxr-xr-x 2 alanchan root 4096 9月 12 2021 dbdrwxr-xr-x 2 alanchan root 4096 1月 16 07:50 fontdrwxr-xr-x 9 alanchan root 4096 2月 23 2022 kmsdrwxr-xr-x 2 alanchan root 4096 4月 1 2022 logs
3)、配置 kafka_eagle 环境变量。
vim /etc/profileexport KE_HOME=/usr/local/bigdata/kafka-eagle-bin-3.0.1/efak-web-3.0.1export PATH=$PATH:$KE_HOME/bin source /etc/profile
4)、 配置 kafka_eagle
使用vi打开conf目录下的system-config.properties
vim conf/system-config.properties
# 修改第4行,配置kafka集群别名kafka.eagle.zk.cluster.alias=cluster1# 修改第5行,配置ZK集群地址efak.zk.cluster.alias=cluster1cluster1.zk.list=server1:2118,server2:2118,server3:2118# 注释第6行#cluster2.zk.list=xdn10:2181,xdn11:2181,xdn12:2181# 开启mysefak.driver=com.mysql.cj.jdbc.Driverefak.url=jdbc:mysql://192.168.10.44:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNullefak.username=rootefak.password=888888
完整配置文件
####################################### multi zookeeper & kafka cluster list# Settings prefixed with 'kafka.eagle.' will be deprecated, use 'efak.' instead######################################efak.zk.cluster.alias=cluster1cluster1.zk.list=server1:2118,server2:2118,server3:2118#cluster2.zk.list=xdn10:2181,xdn11:2181,xdn12:2181####################################### zookeeper enable acl######################################cluster1.zk.acl.enable=falsecluster1.zk.acl.schema=digestcluster1.zk.acl.username=testcluster1.zk.acl.password=test123####################################### broker size online list######################################cluster1.efak.broker.size=20####################################### zk client thread limit######################################kafka.zk.limit.size=16####################################### EFAK webui port######################################efak.webui.port=8048####################################### EFAK enable distributed######################################efak.distributed.enable=falseefak.cluster.mode.status=masterefak.worknode.master.host=localhostefak.worknode.port=8085####################################### kafka jmx acl and ssl authenticate######################################cluster1.efak.jmx.acl=falsecluster1.efak.jmx.user=keadmincluster1.efak.jmx.password=keadmin123cluster1.efak.jmx.ssl=falsecluster1.efak.jmx.truststore.location=/data/ssl/certificates/kafka.truststorecluster1.efak.jmx.truststore.password=ke123456####################################### kafka offset storage######################################cluster1.efak.offset.storage=kafkacluster2.efak.offset.storage=zk####################################### kafka jmx uri######################################cluster1.efak.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi####################################### kafka metrics, 15 days by default######################################efak.metrics.charts=trueefak.metrics.retain=15####################################### kafka sql topic records max######################################efak.sql.topic.records.max=5000efak.sql.topic.preview.records.max=10####################################### delete kafka topic token######################################efak.topic.token=keadmin####################################### kafka sasl authenticate######################################cluster1.efak.sasl.enable=falsecluster1.efak.sasl.protocol=SASL_PLAINTEXTcluster1.efak.sasl.mechanism=SCRAM-SHA-256cluster1.efak.sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka" password="kafka-eagle";cluster1.efak.sasl.client.id=cluster1.efak.blacklist.topics=cluster1.efak.sasl.cgroup.enable=falsecluster1.efak.sasl.cgroup.topics=cluster2.efak.sasl.enable=falsecluster2.efak.sasl.protocol=SASL_PLAINTEXTcluster2.efak.sasl.mechanism=PLAINcluster2.efak.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="kafka" password="kafka-eagle";cluster2.efak.sasl.client.id=cluster2.efak.blacklist.topics=cluster2.efak.sasl.cgroup.enable=falsecluster2.efak.sasl.cgroup.topics=####################################### kafka ssl authenticate######################################cluster3.efak.ssl.enable=falsecluster3.efak.ssl.protocol=SSLcluster3.efak.ssl.truststore.location=cluster3.efak.ssl.truststore.password=cluster3.efak.ssl.keystore.location=cluster3.efak.ssl.keystore.password=cluster3.efak.ssl.key.password=cluster3.efak.ssl.endpoint.identification.algorithm=httpscluster3.efak.blacklist.topics=cluster3.efak.ssl.cgroup.enable=falsecluster3.efak.ssl.cgroup.topics=####################################### kafka sqlite jdbc driver address#######################################efak.driver=org.sqlite.JDBC#efak.url=jdbc:sqlite:/hadoop/kafka-eagle/db/ke.db#efak.username=root#efak.password=www.kafka-eagle.org####################################### kafka mysql jdbc driver address######################################efak.driver=com.mysql.cj.jdbc.Driverefak.url=jdbc:mysql://192.168.10.44:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNullefak.username=rootefak.password=888888
5)、启动
[alanchan@server1 bin]$ ke.shUsage: ./ke.sh {start|stop|restart|status|stats|find|gc|jdk|version|sdate|cluster}ke.sh start[2023-01-16 08:05:35] INFO: Port Progress: [##################################################] | 100%[2023-01-16 08:05:38] INFO: Config Progress: [##################################################] | 100%[2023-01-16 08:05:41] INFO: Startup Progress: [##################################################] | 100%[2023-01-16 08:05:31] INFO: Status Code[0][2023-01-16 08:05:31] INFO: [Job done!]Welcome to ______ ______ ___ __ __ / ____/ / ____/ / | / //_/ / __/ / /_ / /| | / ,< / /___ / __/ / ___ | / /| | /_____/ /_/ /_/ |_|/_/ |_| ( Eagle For Apache Kafka® )Version v3.0.1 -- Copyright 2016-2022******************************************************************** EFAK Service has started success.* Welcome, Now you can visit 'http://192.168.10.41:8048'* Account:admin ,Password:123456******************************************************************** <Usage> ke.sh [start|status|stop|restart|stats] </Usage>* <Usage> https://www.kafka-eagle.org/ </Usage>*******************************************************************自己创建的用户alanchan,密码123456
三、验证
浏览器中输入地址:http://192.168.10.41:8048
以上,完成了kafka监控工具Kafka-Eagle介绍及使用。