搞定这8个Kafka生产级容量评估,每日10亿+请求轻松拿捏
liebian365 2024-11-22 17:12 4 浏览 0 评论
本篇文章通过场景驱动的方式来深度剖析 Kafka 生产级容量评估方案如何分析,申请和实施。
一、kafka容量评估需求场景分析
1、集群如何每天hold住10亿+请求
拿电商平台为例,kafka 集群每天需要承载10亿+请求流量数据,一天24小时,对于平台来说,晚上12点到凌晨8点这8个小时几乎没多少数据涌入的。这里我们使用「二八法则」来进行预估,也就是80%的数据(8亿)会在剩余的16个小时涌入,且8亿中的80%的数据(约6.4亿)会在这16个小时的20%时间 (约3小时)涌入。
通过上面的场景分析,可以得出如下:
QPS计算公式 = 640000000 ÷ (3 * 60 * 60) = 6万,也就是说高峰期集群需要扛住每秒6万的并发请求。
假设每条数据平均按20kb(生产端有数据汇总)来算, 那就是 1000000000 * 20kb = 18T,一般情况下我们都会设置3个副本,即54T,另外 kafka 数据是有保留时间周期的, 一般情况是保留最近3天的数据,即 54T * 3 = 162T。
2、场景总结
要搞定10亿+请求,高峰期要支撑6万QPS,需要大约162T的存储空间。
二、kafka容量评估之物理机数量
1、物理机 OR 虚拟机
一般对于Kafka,Mysql,Hadoop 等集群自建的时候,都会使用物理机来进行搭建,性能和稳定性相对虚拟机要强很多。
2、物理机数量计算
在第一步中我们分析得出系统高峰期的时候要支撑6万QPS,如果公司资金和资源充足的情况下,我们一般会让高峰期的QPS控制在集群总承载QPS能力的30%左右,这样的话可以得出集群能承载的总QPS能力约为20万左右,这样系统才会是安全的。
3、场景总结
根据经验可以得出每台物理机支撑4万QPS是没有问题的,从QPS角度分析,我们要支撑10亿+请求,大约需要5台物理机,考虑到消费者请求,需要增加约1.5倍机器,即7台物理机。
三、kafka容量评估之磁盘
1、机械硬盘 OR 固态硬盘SSD
两者主要区别如下:
- SSD就是固态硬盘,它的优点是速度快,日常的读写比机械硬盘快几十倍上百倍。缺点是单位成本高,不适合做大容量存储。
- HDD就是机械硬盘,它的优点是单位成本低,适合做大容量存储,但速度远不如SSD。
首先SSD硬盘性能好,主要是指的随机读写能力性能好,非常适合Mysql这样的集群,而SSD的顺序读写性能跟机械硬盘的性能是差不多的。
Kafka 写磁盘是顺序追加写的,所以对于 kafka 集群来说,我们使用普通机械硬盘就可以了。
2、每台服务器需要多少块硬盘
根据第一二步骤计算结果,我们需要7台物理机,一共需要存储162T数据,大约每台机器需要存储23T数据,根据以往经验一般服务器配置11块硬盘,这样每块硬盘大约存储2T的数据就可以了,另外为了服务器性能和稳定性,我们一般要保留一部分空间,保守按每块硬盘最大能存储3T数据。
3、场景总结
要搞定10亿+请求,需要7台物理机,使用普通机械硬盘进行存储,每台服务器11块硬盘,每块硬盘存储2T数据。
四、kafka容量评估之内存
1、Kafka 写磁盘流程及内存分析
从上图可以得出 Kafka 读写数据的流程主要都是基于os cache,所以基本上 Kafka 都是基于内存来进行数据流转的,这样的话要分配尽可能多的内存资源给os cache。
kafka的核心源码基本都是用 scala 和 java (客户端)写的,底层都是基于 JVM 来运行的,所以要分配一定的内存给 JVM 以保证服务的稳定性。对于 Kafka 的设计,并没有把很多的数据结构存储到 JVM 中,所以根据经验,给 JVM 分配6~10G就足够了。
从上图可以看出一个 Topic 会对于多个 partition,一个 partition 会对应多个 segment ,一个 segment 会对应磁盘上4个log文件。假设我们这个平台总共100个 Topic ,那么总共有 100 Topic * 5 partition * 3 副本 = 1500 partition 。对于 partition 来说实际上就是物理机上一个文件目录, .log就是存储数据文件的,默认情况下一个.log日志文件大小为1G。
如果要保证这1500个 partition 的最新的 .log 文件的数据都在内存中,这样性能当然是最好的,需要 1500 * 1G = 1500 G内存,但是我们没有必要所有的数据都驻留到内存中,我们只保证25%左右的数据在内存中就可以了,这样大概需要 1500 * 250M = 1500 * 0.25G = 375G内存,通过第二步分析结果,我们总共需要7台物理机,这样的话每台服务器只需要约54G内存,外加上面分析的JVM的10G,总共需要64G内存。还要保留一部分内存给操作系统使用,故我们选择128G内存的服务器是非常够用了。
2、场景总结
要搞定10亿+请求,需要7台物理机,每台物理机内存选择128G内存为主,这样内存会比较充裕。
五、kafka容量评估之CPU压力
1、CPU Core分析
我们评估需要多少个 CPU Core,主要是看 Kafka 进程里会有多少个线程,线程主要是依托多核CPU来执行的,如果线程特别多,但是 CPU核很少,就会导致CPU负载很高,会导致整体工作线程执行的效率不高,性能也不会好。所以我们要保证CPU Core的充足,来保障系统的稳定性和性能最优。
2、Kafka 网络架构及线程数计算
我们评估下 Kafka 服务器启动后会有多少线程在跑,其实这部分内容跟kafka超高并发网络架构密切相关,上图是Kafka 超高并发网络架构图,从图中我们可以分析得出:
除了上图所列的还有其他一些线程,所以估算下来,一个 kafka 服务启动后,会有100多个线程在跑。
2、场景总结
要搞定10亿+请求,需要7台物理机,每台物理机内存选择128G内存为主,需要16个cpu core(32个性能更好)。
六、kafka容量评估之网卡
1、网卡对比分析
通过上图分析可以得出千兆网卡和万兆网卡的区别最大之处在于网口的传输速率的不同,千兆网卡的传输速率是1000Mbps,万兆网卡的则是10Gbps万兆网卡是千兆网卡传输速率的10倍。性能上讲,万兆网卡的性能肯定比千兆网卡要好。万兆网卡现在主流的是10G的,发展趋势正逐步面向40G、100G网卡。但还是要根据使用环境和预算来选择投入,毕竟千兆网卡和万兆网卡的性价比区间还是挺大的。
2、网卡选择分析
根据第一二步分析结果,高峰期的时候,每秒会有大约6万请求涌入,即每台机器约1万请求涌入(60000 / 7),每秒要接收的数据大小为: 10000 * 20 kb = 184 M/s,外加上数据副本的同步网络请求,总共需要 184 * 3 = 552 M/s。
一般情况下,网卡带宽是不会达到上限的,对于千兆网卡,我们能用的基本在700M左右,通过上面计算结果,千兆网卡基本可以满足,万兆网卡更好。
3、场景总结
要搞定10亿+请求,需要7台物理机,每台物理机内存选择128G内存为主,需要16个cpu core(32个性能更好),千兆网卡基本可以满足,万兆网卡更好。
7、kafka容量评估之核心参数
8、kafka容量评估之集群规划
1、集群部署规划
这里我采用五台服务器来构建 Kafka 集群,集群依赖 ZooKeeper,所以在部署 Kafka 之前,需要部署好 ZooKeeper 集群。这里我将 Kafka 和 ZooKeeper 部署在了一起,Kafka 集群节点操作系统仍然采用 Centos 7.7 版本,各个主机角色和软件版本如下表所示:
这里需要注意:Kafka 和 ZooKeeper 的版本,默认 Kafka2.11 版本自带的 ZooKeeper 依赖 jar 包版本为 3.5.7,因此 ZooKeeper 的版本至少在 3.5.7 及以上。
2、下载与安装
Kafka 需要安装 Java 运行环境,你可以点击Kafka官网
(https://kafka.apache.org/downloads)获取 Kafka 安装包,推荐的版本是 kafka_2.11-2.4.1.tgz。将下载下来的安装包直接解压到一个路径下即可完成 Kafka 的安装,这里统一将 Kafka 安装到 /usr/local 目录下,我以在 kafka-zk1 主机为例,基本操作过程如下:
[root@kafkazk1~]# tar -zxvf kafka_2.11-2.4.1.tgz -C /usr/local
[root@kafkazk1~]# mv /usr/local/kafka_2.11-2.4.1 /usr/local/kafka
这里我创建了一个 Kafka 用户,用来管理和维护 Kafka 集群,后面所有对 Kafka 的操作都通过此用户来完成,执行如下操作进行创建用户和授权:
[root@kafkazk1~]# useradd kafka
[root@kafkazk1~]# chown -R kafka:kafka /usr/local/kafka
在 kafka-zk1 节点安装完成 Kafka 后,先进行配置 Kafka,等 Kafka 配置完成,再统一打包复制到其他两个节点上。
broker.id=1
listeners=PLAINTEXT://172.16.213.31:9092
log.dirs=/usr/local/kafka/logs
num.partitions=6
log.retention.hours=72
log.segment.bytes=1073741824
zookeeper.connect=172.16.213.31:2181,172.16.213.32:2181,172.16.213.33:2181
auto.create.topics.enable=true
delete.topic.enable=true
num.network.threads=9
num.io.threads=32
message.max.bytes=10485760
log.flush.interval.message=10000
log.flush.interval.ms=1000
replica.lag.time.max.ms=10
Kafka 配置文件修改完成后,接着打包 Kafka 安装程序,将程序复制到其他4个节点,然后进行解压即可。注意,在其他4个节点上,broker.id 务必要修改,Kafka 集群中 broker.id 不能有相同的(唯一的)。
3、启动集群
五个节点的 Kafka 配置完成后,就可以启动了,但在启动 Kafka 集群前,需要确保 ZooKeeper 集群已经正常启动。接着,依次在 Kafka 各个节点上执行如下命令即可:
[root@kafkazk1~]# cd /usr/local/kafka
[root@kafkazk1 kafka]# nohup bin/kafka-server-start.sh config/server.properties &
[root@kafkazk1 kafka]# jps
21840 Kafka
15593 Jps
15789 QuorumPeerMain
这里将 Kafka 放到后台(deamon)运行,启动后,会在启动 Kafka 的当前目录下生成一个 nohup.out 文件,可通过此文件查看 Kafka 的启动和运行状态。通过 jps 指令,可以看到有个 Kafka 标识,这是 Kafka 进程成功启动的标志。
九、总结
整个场景总结:
要搞定10亿+请求,经过上面深度剖析评估后需要以下资源:
作者丨王江华
来源丨公众号:华仔聊技术(ID:gh_97b8de4b5b34)
dbaplus社群欢迎广大技术人员投稿,投稿邮箱:editor@dbaplus.cn
关注公众号【dbaplus社群】,获取更多原创技术文章和精选工具下载
相关推荐
- 快递查询教程,批量查询物流,一键管理快递
-
作为商家,每天需要查询许许多多的快递单号,面对不同的快递公司,有没有简单一点的物流查询方法呢?小编的回答当然是有的,下面随小编一起来试试这个新技巧。需要哪些工具?安装一个快递批量查询高手快递单号怎么快...
- 一键自动查询所有快递的物流信息 支持圆通、韵达等多家快递
-
对于各位商家来说拥有一个好的快递软件,能够有效的提高自己的工作效率,在管理快递单号的时候都需要对单号进行表格整理,那怎么样能够快速的查询所有单号信息,并自动生成表格呢?1、其实方法很简单,我们不需要一...
- 快递查询单号查询,怎么查物流到哪了
-
输入单号怎么查快递到哪里去了呢?今天小编给大家分享一个新的技巧,它支持多家快递,一次能查询多个单号物流,还可对查询到的物流进行分析、筛选以及导出,下面一起来试试。需要哪些工具?安装一个快递批量查询高手...
- 3分钟查询物流,教你一键批量查询全部物流信息
-
很多朋友在问,如何在短时间内把单号的物流信息查询出来,查询完成后筛选已签收件、筛选未签收件,今天小编就分享一款物流查询神器,感兴趣的朋友接着往下看。第一步,运行【快递批量查询高手】在主界面中点击【添...
- 快递单号查询,一次性查询全部物流信息
-
现在各种快递的查询方式,各有各的好,各有各的劣,总的来说,还是有比较方便的。今天小编就给大家分享一个新的技巧,支持多家快递,一次能查询多个单号的物流,还能对查询到的物流进行分析、筛选以及导出,下面一起...
- 快递查询工具,批量查询多个快递快递单号的物流状态、签收时间
-
最近有朋友在问,怎么快速查询单号的物流信息呢?除了官网,还有没有更简单的方法呢?小编的回答当然是有的,下面一起来看看。需要哪些工具?安装一个快递批量查询高手多个京东的快递单号怎么快速查询?进入快递批量...
- 快递查询软件,自动识别查询快递单号查询方法
-
当你拥有多个快递单号的时候,该如何快速查询物流信息?比如单号没有快递公司时,又该如何自动识别再去查询呢?不知道如何操作的宝贝们,下面随小编一起来试试。需要哪些工具?安装一个快递批量查询高手快递单号若干...
- 教你怎样查询快递查询单号并保存物流信息
-
商家发货,快递揽收后,一般会直接手动复制到官网上一个个查询物流,那么久而久之,就会觉得查询变得特别繁琐,今天小编给大家分享一个新的技巧,下面一起来试试。教程之前,我们来预览一下用快递批量查询高手...
- 简单几步骤查询所有快递物流信息
-
在高峰期订单量大的时候,可能需要一双手当十双手去查询快递物流,但是由于逐一去查询,效率极低,追踪困难。那么今天小编给大家分享一个新的技巧,一次能查询多个快递单号的物流,下面一起来学习一下,希望能给大家...
- 物流单号查询,如何查询快递信息,按最后更新时间搜索需要的单号
-
最近有很多朋友在问,如何通过快递单号查询物流信息,并按最后更新时间搜索出需要的单号呢?下面随小编一起来试试吧。需要哪些工具?安装一个快递批量查询高手快递单号若干怎么快速查询?运行【快递批量查询高手】...
- 连续保存新单号功能解析,导入单号查询并自动识别批量查快递信息
-
快递查询已经成为我们日常生活中不可或缺的一部分。然而,面对海量的快递单号,如何高效、准确地查询每一个快递的物流信息,成为了许多人头疼的问题。幸运的是,随着科技的进步,一款名为“快递批量查询高手”的软件...
- 快递查询教程,快递单号查询,筛选更新量为1的单号
-
最近有很多朋友在问,怎么快速查询快递单号的物流,并筛选出更新量为1的单号呢?今天小编给大家分享一个新方法,一起来试试吧。需要哪些工具?安装一个快递批量查询高手多个快递单号怎么快速查询?运行【快递批量查...
- 掌握批量查询快递动态的技巧,一键查找无信息记录的两种方法解析
-
在快节奏的商业环境中,高效的物流查询是确保业务顺畅运行的关键。作为快递查询达人,我深知时间的宝贵,因此,今天我将向大家介绍一款强大的工具——快递批量查询高手软件。这款软件能够帮助你批量查询快递动态,一...
- 从复杂到简单的单号查询,一键清除单号中的符号并批量查快递信息
-
在繁忙的商务与日常生活中,快递查询已成为不可或缺的一环。然而,面对海量的单号,逐一查询不仅耗时费力,还容易出错。现在,有了快递批量查询高手软件,一切变得简单明了。只需一键,即可搞定单号查询,一键处理单...
- 物流单号查询,在哪里查询快递
-
如果在快递单号多的情况,你还在一个个复制粘贴到官网上手动查询,是一件非常麻烦的事情。于是乎今天小编给大家分享一个新的技巧,下面一起来试试。需要哪些工具?安装一个快递批量查询高手快递单号怎么快速查询?...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- wireshark怎么抓包 (75)
- qt sleep (64)
- cs1.6指令代码大全 (55)
- factory-method (60)
- sqlite3_bind_blob (52)
- hibernate update (63)
- c++ base64 (70)
- nc 命令 (52)
- wm_close (51)
- epollin (51)
- sqlca.sqlcode (57)
- lua ipairs (60)
- tv_usec (64)
- 命令行进入文件夹 (53)
- postgresql array (57)
- statfs函数 (57)
- .project文件 (54)
- lua require (56)
- for_each (67)
- c#工厂模式 (57)
- wxsqlite3 (66)
- dmesg -c (58)
- fopen参数 (53)
- tar -zxvf -c (55)
- 速递查询 (52)