Kubernetes 日志收集(五)- 使用 Kafka 做中间层
前言之前基于 Fluent-bit Daemonset 的日志收集中,是由 fluent-bit 直接采集到 elasticsearch 中,当我们的日志量非常大的情况下,这样会造成 elasticsearch 压力过大,甚至会因此丢失日志,所以我们最好在采集器到保存的中间加上一个中间层,我们选择使用 kafka 作为中间层 配置 Outputfluent-bit 其余配置保持不变,需要替换 Output 的相关配置 [OUTPUT] name kafka match kube.* brokers <your brokers addresses> topics <your topic name> # sasl auth rdkafka.security.protocol SASL_PLAINTEXT rdkafka.sasl.mechanisms SCRAM-SHA-256 rdkafka.sasl.username <user> rdkafka.sasl.password...
提高 WSL 使用体验的小方法
一些在使用 WSL 中可以提高“幸福感”的方法
从零实现CI/CD(二)- Jenkins 配置流水线
配置 Jenkins 流水线的一些准备工作,以及如何使用 Jenkinsfile 快速的构建代码
Kubernetes 日志收集(四)- 基于 Fluent-bit Daemonset 的日志收集
如果我们不想使用 Logging Operator,当然也可以自己配置 Fluent-Bit 通过 Daemonset 进行节点 POD 日志的收集
Kubernetes 日志收集(三)- Logging operator 中使用 concat 多行合并相关问题
解决在 Logging operator 的 Flow 中,使用 concat 插件解决多行合并,出现的一些问题
KEDA - 基于 Kubernetes 的事件驱动自动缩放器
KEDA(全称:Kubernetes-based Event Driven Autoscaler)是一个基于 Kubernetes 的事件驱动自动缩放器。 借助 KEDA,可以根据需要处理的事件数量来驱动 Kubernetes 中任何容器的扩展。
Kubernetes 日志收集(二)- 基于 Logging operator 的日志收集
Logging Operator 通过自动部署和配置 Kubernetes 日志管道来解决 Kubernetes 环境中与日志记录相关的问题。
Kubernetes 日志收集(一)- 基于 SideCar 模式的日志收集
基于 SideCar 模式的日志收集原理是,Pod 将日志打印到对应文件夹中,SideCar 与应用同时挂载此文件夹,来达到收集日志的目的。
Ceoh 集群 OSD Down 问题解决
记录一次 Ceph OSD down 的问题,将故障 OSD 对应磁盘还原成裸盘重新接入集群。
Rook-ceph 开启卷快照功能
VolumeSnapshot 是用户对卷快照的请求。它类似于 PersistentVolumeClaim,使用 VolumeSnapshot 可以用于对 PVC 进行快照备份,VolumeSnapshot 功能支持 CSI v1.0 及更高版本。它在 Kubernetes v1.12 中作为 Alpha 功能引入,并在 Kubernetes 1.17 中提升为 Beta 功能。在 Kubernetes 1.20 中,卷快照功能移至 GA。