https://cdn.lixianyang.xyz/person/avatar.webp

fluentd write to kafka hang

日志截断 kafka message 默认有 1M 大小的限制(可以调整),在收集日志时,太长的日志需要进行截断处理,配置如下: 1 2 3 4 5 6 7 <filter test-log.**> @type record_transformer enable_ruby true <record> log ${record.dig("log")[0, 999000] } </record> </filter> 这里

fluentd 镜像构建与常用配置

镜像 基础镜像 quay.io/fluentd_elasticsearch/fluentd:v2.9.0. 基础镜像 Dockerfile 项目地址 构建自己的镜像 1 2 3 4 5 6 FROMquay.io/fluentd_elasticsearch/fluentd:v2.9.0RUN gem uninstall fluent-plugin-kubernetes_metadata_filter --version=2.4.1 && \ gem uninstall kubeclient --version=4.5.0 && \ gem uninstall fluentd --version=1.8.0 && \ gem install fluentd fluent-plugin-kubernetes_metadata_filter kubeclient fluent-plugin-kafka 配置 基本命令 配置文件主要由以下命