Jonnyan的原创笔记
alpine
alpine里python安装mssql笔记
Alpine linux如何配置和管理自定义服务
windows
window server2012远程授权重置
window获取本机所有IP
window远程桌面RDP加速方案
远程监控 Win10 资源占用
windows 下 mysql 区分大小写敏感问题
window下navicat无限试用脚本
win11恢复win10右键菜单样式
永久禁止windows更新
强制本地账户安装win10/11
sqlserver(2012)在线清理tempdb
Linux
解决openvpn的CRL has expired笔记
centos7.x配置时间服务器(chrony)
centos7.x下安装wireguard
解决influxdb的log日志输出位置
保存 iptable 规则并开机自动加载 | SA-Logs
kafka笔记
kafka的server.properties 配置文件参数说明
CentOS 和 RedHat 下 8 个最常用的 YUM 库
外网IP查询网站
VirtualBox Ubuntu20/centos7 命令行如何扩容分区磁盘
如何备份sqlite数据库
yum 安装 redis5/mq/consul
centos7.x 安装 docker-ce
zabbix4.2 的 yum+mariadb 方式部署安装
如何在 Linux 中查找最大的 10 个文件
mongodb 备份与还原操作
Linux 高频工具快速教程
yum 安装 influxdb/telegraf
ubuntu 14.04/16.04/18.04 yum 安装 zabbix-agent 教程
逃不掉的 mysql 数据库安装方式大全 yum rpm 源码
VIM 配置入门
find 命令结合 cp bash mv 命令使用的 4 种方式
Tomcat nginx log 日志按天分割切割
linux 和 pycharm 下终端彩色打印输出
centos5/6/7 下 yum 安装 zabbix-agent(被控端)
shell 脚本头,#!/bin/sh 与 #!/bin/bash 的区别.
electerm/tabby在执行screen命令后不显示滚动条
aws ec2 安装caddy2
No usable version of libssl was found
python
python virtualenv笔记
python配置文件INI/TOML/YAML/ENV的区别
python限制函数的执行时间
python里and和or的理解
SQLite is not a toy database | Anton Zhiyanov
四行代码实现 Python 管道 - Aber's blog
systemd管理虚拟环境Django+uwsgi+nginx配置教程
Linux shell命令创建python django用户
nginx子路径下反代运行多个django
django web 应用 runserver 模式下 cpu 占用高解决办法
解决 pip 安装模块报错 Cannot fetch index base URL http://pypi.python.org/simple/
docker
仅在首次启动时在Docker容器中运行命令
Docker多平台架构镜像构建
解决cadvisor监控内存值与docker stats命令值不一致问题
docker 清理指定日期之前的镜像
docker 部署 graylog 使用教程
docker 一键搭建 zerotier-moon 节点
alpine的docker镜像安装mysql/mariadb/redis
dockerfile 多阶段构建参考
Warning: Stopping docker.service, but it can still be activated by: docker.socket
jsonargsrecommended: json arguments recommended for entrypoint to prevent unintended behavior related to os signals (line 30)
nginx
Nginx限制并发连接数与下载速度
nginx仅允许域名访问禁止IP访问
Nginx 强制跳转 Https
nginx强制跳转https无限301循环问题
万字总结,带你全面系统的认识 Nginx
linux 下编译安装 nginx 完整版
解决 nginx 同端口强制跳转 https 配置 ssl 证书问题
nginx 关闭日志功能 access_log 关闭
基于 nginx 的 token 认证
杂记
小米手机MIUI12安装Google服务
使用sphinx+markdown+readthedocs+github来编写文档
N1由armbian直刷openwrt
N1安装docker版本的openwrt做旁路由
NUC10 i3/i5/i7系列开启局域网wol唤醒
威联通qnap安装nginx
威联通qnap配置开机自启动项
telegram bot python使用示例教程
四款paste临时文本分享平台
docker部署微力同步(verysync)
Android和IOS自部署通知程序
苹果M1如何科学上网
M1 mac iterm2配置lrzsz命令
漫威轮播
网件XR500/R7800刷机
DIY 编译 openwrt 固件
苹果 mac 版微软官方远程连接工具下载 Microsoft Remote Desktop For Mac
wireguard 实现 peer 互联, NAT to NAT
学习本来的样子
解决 aws ec2 的 centos7 设置时区无效
redis 问题优化
N1 如何完美刷入 armbian 系统教程
v2rayN 的 pac 简单规则
博客园 markdown 使用折叠语法和颜色标签
十年感悟之 python 之路
在浏览器输入 URL 回车后发生了什么?
grafana 里 prometheus 查询语法
国内开源镜像站点汇总
解决阿里云部署 office web apps ApplicationFailedException 报错问题
解决 mac 休眠睡眠异常耗电方法
jira 集成 fisheye 代码深度查看工具安装绿色版
阿里云 ecs 开启 x11 图形化桌面
markdown 完整语法规范 3.0 + 编辑工具介绍
pycharm 重置设置,恢复默认设置
[已解决]window 下 Can't connect to MySQL server on'localhost' (10061) 与无法启动 MYSQL 服务”1067 进程意外终止”
解决 xshell6 评估过期, 需采购问题
[已解决]pycharm 报错: AttributeError: module 'pip' has no attribute 'main'
[已解决]windows 下 python3.x 与 python2.7 共存版本 pip 使用报错问题
局域网共享工具总结
云策文档think配置https教程
MIUI12-14百度输入法小米版使用森林集皮肤办法
Jenkins 构建后通知到飞书
简易的openvpn安装
keychron V1键盘改键教程
caddy2配置SSE单向websock(How to proxy Server Sent Events caddy2)
cleanmymacx 一直要求输入密码问题解决
Mac配置鼠须管输入法(Rime)
sorry this adobe app is not available(mac版本的Photoshop)
caddy2配置websocks
解决 all DNS requests failed, first error: dns: bad rdata
小米hyperos系统关闭5G信号开关
tg每日自动签到
简单的路由器系统
telegram被封号怎么办
机器监控告警
zabbix
yum / 编译安装 Zabbix 5.0 LTS
zabbix 监控 AWS-SQS 队列
Zabbix-agent 端配置文件说明
Prometheus+grafana
prometheus+grafana安装和配置
node_exporter主机监控
cadvisor容器监控
redis_exporter监控
rabbitmq_exporter监控
consul_exporter监控
windows_exporter
Open-Falcon
falcon 数据丢失处理方法参考
日志监控告警
graylog
graylog 通过 python 实现钉钉 / 微信 / webhook 告警
loki+grafana
Loki简介
Loki安装
Loki查询语法
grafana面板pannel语法
内网穿透
frp(推荐一)
zerotier(推荐二)
zerotier充当网关实现内网互联,访问其它节点内网
一分钟自建zerotier-plant
tailscale(推荐三)
N2N
nps
anylink
OmniEdge
quickvlan(昆浪智能)
本文档发布于https://mrdoc.fun
-
+
首页
kafka的server.properties 配置文件参数说明
> 本文由 [简悦 SimpRead](http://ksria.com/simpread/) 转码, 原文地址 [www.kancloud.cn](https://www.kancloud.cn/hanxt/elk/159233) 必配置属性 ----- 每个 kafka broker 中配置文件 server.properties 默认必须配置的属性如下: ``` broker.id=0 num.network.threads=2 num.io.threads=8 socket.send.buffer.bytes=1048576 socket.receive.buffer.bytes=1048576 socket.request.max.bytes=104857600 log.dirs=/tmp/kafka-logs num.partitions=2 log.retention.hours=168 log.segment.bytes=536870912 log.retention.check.interval.ms=60000 log.cleaner.enable=false zookeeper.connect=localhost:2181 zookeeper.connection.timeout.ms=1000000 ``` 参数说明 ---- <table><thead><tr><th>参数</th><th>说明</th></tr></thead><tbody><tr><td><a href="http://broker.id" target="_blank">broker.id</a> =0</td><td>每一个 broker 在集群中的唯一表示,要求是正数。当该服务器的 IP 地址发生改变时,broker.id 没有变化,则不会影响 consumers 的消息情况</td></tr><tr><td>log.dirs=/data/kafka-logs</td><td>kafka 数据的存放地址,多个地址的话用逗号分割, 多个目录分布在不同磁盘上可以提高读写性能 /data/kafka-logs-1,/data/kafka-logs-2</td></tr><tr><td>port =9092</td><td>broker server 服务端口</td></tr><tr><td>message.max.bytes =6525000</td><td>表示消息体的最大大小,单位是字节</td></tr><tr><td>num.network.threads =4</td><td>broker 处理消息的最大线程数,一般情况下数量为 cpu 核数</td></tr><tr><td>num.io.threads =8</td><td>broker 处理磁盘 IO 的线程数,数值为 cpu 核数 2 倍</td></tr><tr><td>background.threads =4</td><td>一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改</td></tr><tr><td>queued.max.requests =500</td><td>等待 IO 线程处理的请求队列最大数,若是等待 IO 的请求超过这个数值,那么会停止接受外部消息,应该是一种自我保护机制。</td></tr><tr><td><a href="http://host.name" target="_blank">host.name</a></td><td>broker 的主机地址,若是设置了,那么会绑定到这个地址上,若是没有,会绑定到所有的接口上,并将其中之一发送到 ZK,一般不设置</td></tr><tr><td>socket.send.buffer.bytes=100*1024</td><td>socket 的发送缓冲区,socket 的调优参数 SO_SNDBUFF</td></tr><tr><td>socket.receive.buffer.bytes =100*1024</td><td>socket 的接受缓冲区,socket 的调优参数 SO_RCVBUFF</td></tr><tr><td>socket.request.max.bytes =100<em>1024</em>1024</td><td>socket 请求的最大数值,防止 serverOOM,message.max.bytes 必然要小于 socket.request.max.bytes,会被 topic 创建时的指定参数覆盖</td></tr><tr><td>log.segment.bytes =1024<em>1024</em>1024</td><td>topic 的分区是以一堆 segment 文件存储的,这个控制每个 segment 的大小,会被 topic 创建时的指定参数覆盖</td></tr><tr><td>log.roll.hours =24*7</td><td>这个参数会在日志 segment 没有达到 log.segment.bytes 设置的大小,也会强制新建一个 segment 会被 topic 创建时的指定参数覆盖</td></tr><tr><td>log.cleanup.policy = delete</td><td>日志清理策略选择有:delete 和 compact 主要针对过期数据的处理,或是日志文件达到限制的额度,会被 topic 创建时的指定参数覆盖</td></tr><tr><td>log.retention.minutes=300 或 log.retention.hours=24</td><td>数据文件保留多长时间, 存储的最大时间超过这个时间会根据 log.cleanup.policy 设置数据清除策略 log.retention.bytes 和 log.retention.minutes 或 log.retention.hours 任意一个达到要求,都会执行删除有 2 删除数据文件方式:按照文件大小删除:log.retention.bytes,按照 2 中不同时间粒度删除:分别为分钟,小时</td></tr><tr><td>log.retention.bytes=-1</td><td>topic 每个分区的最大文件大小,一个 topic 的大小限制 = 分区数 * log.retention.bytes。-1 没有大小限 log.retention.bytes 和 log.retention.minutes 任意一个达到要求,都会执行删除,会被 topic 创建时的指定参数覆盖</td></tr><tr><td>log.retention.check.interval.ms=5minutes</td><td>文件大小检查的周期时间,是否处罚 log.cleanup.policy 中设置的策略</td></tr><tr><td>log.cleaner.enable=false</td><td>是否开启日志清理</td></tr><tr><td>log.cleaner.threads = 2</td><td>日志清理运行的线程数</td></tr><tr><td>log.cleaner.io.max.bytes.per.second=None</td><td>日志清理时候处理的最大大小</td></tr><tr><td>log.cleaner.dedupe.buffer.size=500<em>1024</em>1024</td><td>日志清理去重时候的缓存空间,在空间允许的情况下,越大越好</td></tr><tr><td>log.cleaner.io.buffer.size=512*1024</td><td>日志清理时候用到的 IO 块大小一般不需要修改</td></tr><tr><td>log.cleaner.io.buffer.load.factor =0.9</td><td>日志清理中 hash 表的扩大因子一般不需要修改</td></tr><tr><td><a href="http://log.cleaner.backoff.ms" target="_blank">log.cleaner.backoff.ms</a> =15000</td><td>检查是否处罚日志清理的间隔</td></tr><tr><td>log.cleaner.min.cleanable.ratio=0.5</td><td>日志清理的频率控制,越大意味着更高效的清理,同时会存在一些空间上的浪费,会被 topic 创建时的指定参数覆盖</td></tr><tr><td><a href="http://log.cleaner.delete.retention.ms" target="_blank">log.cleaner.delete.retention.ms</a> =1day</td><td>对于压缩的日志保留的最长时间,也是客户端消费消息的最长时间,同 log.retention.minutes 的区别在于一个控制未压缩数据,一个控制压缩后的数据。会被 topic 创建时的指定参数覆盖</td></tr><tr><td>log.index.size.max.bytes =10<em>1024</em>1024</td><td>对于 segment 日志的索引文件大小限制,会被 topic 创建时的指定参数覆盖</td></tr><tr><td>log.index.interval.bytes=4096</td><td>当执行一个 fetch 操作后, 需要一定的空间来扫描最近的 offset 大小,设置越大,代表扫描速度越快,但是也更好内存,一般情况下不需要搭理这个参数</td></tr><tr><td>log.flush.interval.messages=None</td><td>例如 log.flush.interval.messages=1000 表示每当消息记录数达到 1000 时 flush 一次数据到磁盘,log 文件”sync” 到磁盘之前累积的消息条数, 因为磁盘 IO 操作是一个慢操作, 但又是一个” 数据可靠性 "的必要手段, 所以此参数的设置, 需要在" 数据可靠性 "与" 性能 "之间做必要的权衡. 如果此值过大, 将会导致每次"fsync"的时间较长 (IO 阻塞), 如果此值过小, 将会导致"fsync" 的次数较多, 这也意味着整体的 client 请求有一定的延迟. 物理 server 故障, 将会导致没有 fsync 的消息丢失</td></tr><tr><td><a href="http://log.flush.scheduler.interval.ms" target="_blank">log.flush.scheduler.interval.ms</a> =3000</td><td>检查是否需要固化到硬盘的时间间隔</td></tr><tr><td><a href="http://log.flush.interval.ms" target="_blank">log.flush.interval.ms</a> = None</td><td>例如:log.flush.interval.ms=1000, 表示每间隔 1000 毫秒 flush 一次数据到磁盘仅仅通过 interval 来控制消息的磁盘写入时机, 是不足的. 此参数用于控制 "fsync" 的时间间隔, 如果消息量始终没有达到阀值, 但是离上一次磁盘同步的时间间隔达到阀值, 也将触发.</td></tr><tr><td><a href="http://log.delete.delay.ms" target="_blank">log.delete.delay.ms</a> =60000</td><td>文件在索引中清除后保留的时间一般不需要去修改</td></tr><tr><td><a href="http://log.flush.offset.checkpoint.interval.ms" target="_blank">log.flush.offset.checkpoint.interval.ms</a> =60000</td><td>控制上次固化硬盘的时间点,以便于数据恢复一般不需要去修改</td></tr><tr><td>auto.create.topics.enable =true</td><td>是否允许自动创建 topic,若是 false,就需要通过命令创建 topic</td></tr><tr><td>default.replication.factor =1</td><td>是否允许自动创建 topic,若是 false,就需要通过命令创建 topic</td></tr><tr><td>num.partitions =1</td><td>每个 topic 的分区个数,若是在 topic 创建时候没有指定的话会被 topic 创建时的指定参数覆盖</td></tr></tbody></table> kafka 中 Leader,replicas 配置参数 ---------------------------- <table><thead><tr><th>参数</th><th>说明</th></tr></thead><tbody><tr><td><a href="http://controller.socket.timeout.ms" target="_blank">controller.socket.timeout.ms</a> =30000</td><td>partition leader 与 replicas 之间通讯时, socket 的超时时间</td></tr><tr><td>controller.message.queue.size=10</td><td>partition leader 与 replicas 数据同步时, 消息的队列尺寸</td></tr><tr><td><a href="http://replica.lag.time.max.ms" target="_blank">replica.lag.time.max.ms</a> =10000</td><td>replicas 响应 partition leader 的最长等待时间,若是超过这个时间,就将 replicas 列入 ISR(in-sync replicas),并认为它是死的,不会再加入管理中</td></tr><tr><td>replica.lag.max.messages =4000</td><td>如果 follower 落后与 leader 太多, 将会认为此 follower[或者说 partition relicas] 已经失效.## 通常, 在 follower 与 leader 通讯时, 因为网络延迟或者链接断开, 总会导致 replicas 中消息同步滞后 ## 如果消息之后太多, leader 将认为此 follower 网络延迟较大或者消息吞吐能力有限, 将会把此 replicas 迁移到其他 follower 中.## 在 broker 数量较少, 或者网络不足的环境中, 建议提高此值.</td></tr><tr><td>replica.socket.timeout.ms=30*1000</td><td>follower 与 leader 之间的 socket 超时时间</td></tr><tr><td>replica.socket.receive.buffer.bytes=64*1024</td><td>leader 复制时候的 socket 缓存大小</td></tr><tr><td>replica.fetch.max.bytes =1024*1024</td><td>replicas 每次获取数据的最大大小</td></tr><tr><td><a href="http://replica.fetch.wait.max.ms" target="_blank">replica.fetch.wait.max.ms</a> =500</td><td>replicas 同 leader 之间通信的最大等待时间,失败了会重试</td></tr><tr><td>replica.fetch.min.bytes =1</td><td>fetch 的最小数据尺寸, 如果 leader 中尚未同步的数据不足此值, 将会阻塞, 直到满足条件</td></tr><tr><td>num.replica.fetchers=1</td><td>leader 进行复制的线程数,增大这个数值会增加 follower 的 IO</td></tr><tr><td><a href="http://replica.high.watermark.checkpoint.interval.ms" target="_blank">replica.high.watermark.checkpoint.interval.ms</a> =5000</td><td>每个 replica 检查是否将最高水位进行固化的频率</td></tr><tr><td>controlled.shutdown.enable =false</td><td>是否允许控制器关闭 broker , 若是设置为 true, 会关闭所有在这个 broker 上的 leader,并转移到其他 broker</td></tr><tr><td>controlled.shutdown.max.retries =3</td><td>控制器关闭的尝试次数</td></tr><tr><td><a href="http://controlled.shutdown.retry.backoff.ms" target="_blank">controlled.shutdown.retry.backoff.ms</a> =5000</td><td>每次关闭尝试的时间间隔</td></tr><tr><td>leader.imbalance.per.broker.percentage =10</td><td>leader 的不平衡比例,若是超过这个数值,会对分区进行重新的平衡</td></tr><tr><td>leader.imbalance.check.interval.seconds =300</td><td>检查 leader 是否不平衡的时间间隔</td></tr><tr><td>offset.metadata.max.bytes</td><td>客户端保留 offset 信息的最大空间大小</td></tr></tbody></table> kafka 中 zookeeper 参数配置 ---------------------- <table><thead><tr><th>参数</th><th>说明</th></tr></thead><tbody><tr><td>zookeeper.connect = localhost:2181</td><td>zookeeper 集群的地址,可以是多个,多个之间用逗号分割 hostname1:port1,hostname2:port2,hostname3:port3</td></tr><tr><td>zookeeper.session.timeout.ms=6000</td><td>ZooKeeper 的最大超时时间,就是心跳的间隔,若是没有反映,那么认为已经死了,不易过大</td></tr><tr><td><a href="http://zookeeper.connection.timeout.ms" target="_blank">zookeeper.connection.timeout.ms</a> =6000</td><td>ZooKeeper 的连接超时时间</td></tr><tr><td><a href="http://zookeeper.sync.time.ms" target="_blank">zookeeper.sync.time.ms</a> =2000</td><td>ZooKeeper 集群中 leader 和 follower 之间的同步时间</td></tr></tbody></table>
Jonny
2021年4月16日 12:05
1074
0 条评论
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
如遇文档失效,可评论告知,便后续更新!
【腾讯云】2核2G云服务器新老同享 99元/年,续费同价
【阿里云】2核2G云服务器新老同享 99元/年,续费同价(不要✓自动续费)
【腾讯云】2核2G云服务器新老同享 99元/年,续费同价
【阿里云】2核2G云服务器新老同享 99元/年,续费同价(不要✓自动续费)
Markdown文件
Word文件
PDF文档
PDF文档(打印)
分享
链接
类型
密码
更新密码
有效期