组团学

部署EFK pod日志分析系统

阅读 (432874)

EFK不是一个软件,而是一套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的满足了很多场合的应用,是目前主流的一种日志系统。EFK是三个开源软件的缩写,分别表示:Elasticsearch , Fluentd, Kibana

组件说明:

EFK由ElasticSearch、Fluentd和Kiabana三个开源工具组成。

​1、其中Elasticsearch是一款分布式搜索引擎,能够用于日志的检索

​2、Fluentd是一个实时开源的数据收集器,

​3、Kibana 是一款能够为Elasticsearch 提供分析和可视化的 Web 平台。

这三款开源工具的组合为日志数据提供了分布式的实时搜集与分析的监控系统。

一、环境准备

# 资源配置: Master: 4U4G Node-1: 4U4G Node-2: 4U4G mkdir efk cd efk kubectl create namespace efk 添加 Google incubator 仓库: helm repo add bitnami https://charts.bitnami.com/bitnami

二、部署 Elasticsearch

helm fetch bitnami/elasticsearch tar zxvf elasticsearch-12.3.1.tgz cd elasticsearch/ vim values.yaml # 因为是实验环境,需要修改一下配置文件,否则可能会因为资源问题而导致实验失败 volumePermissions: enabled: false # 修改为 “false” image: registry: docker.io repository: bitnami/minideb tag: buster pullPolicy: Always master: name: master replicas: 1 # 修改为 “1” persistence: enabled: false # 修改为 “false” coordinating: replicas: 1 # 修改为 “1” updateStrategy: type: RollingUpdate data: name: data replicas: 1 # 修改为 “1” persistence: enabled: false # 修改为 “false” # 保存退出 helm install . --name ela --namespace=efk -f values.yaml # 测试一下: kubectl run cirror-$RANDOM --rm -it --image=cirros -- /bin/sh curl Elasticsearch:Port/_cat/nodes

完成后我们查看一下:

185.png

三、部署 Fluentd

helm fetch stable/fluentd tar zxvf fluentd-2.4.1.tgz cd fluentd vim values.yaml # 更改其中 Elasticsearch 访问地址 elasticsearch: host: 'es-elasticsearch-coordinating-only' # 修改地址 port: 9200 scheme: 'http' ssl_version: TLSv1_2 buffer_chunk_limit: 2M buffer_queue_limit: 8 logstash_prefix: 'logstash' system.conf 上方添加下列代码: containers.input.conf: |- <source> @id fluentd-containers.log @type tail path /var/log/containers/*.log pos_file /var/log/es-containers.log.pos tag raw.kubernetes.* read_from_head true <parse> @type multi_format <pattern> format json time_key time time_format %Y-%m-%dT%H:%M:%S.%NZ </pattern> <pattern> format /^(?<time>.+) (?<stream>stdout|stderr) [^ ]* (?<log>.*)$/ time_format %Y-%m-%dT%H:%M:%S.%N%:z </pattern> </parse> </source> <match raw.kubernetes.**> @id raw.kubernetes @type detect_exceptions remove_tag_prefix raw message log stream stream multiline_flush_interval 5 max_bytes 500000 max_lines 1000 </match> vim templates/deployment.yaml volumeMounts volumes 下方进行挂载: volumeMounts: - name: varlog mountPath: /var/log - name: dockercontainers mountPath: /var/lib/docker/containers readOnly: true volumes: - name: varlog hostPath: path: /var/log - name: dockercontainers hostPath: path: /var/lib/docker/containers helm install . --name flu --namespace=efk -f values.yaml

完成后查看:

186.png

四、部署 kibana

helm fetch bitnami/kibana # 这里要特别注意一下,Kibana 的版本要与Elasticsearch 的版本一直,否则会出错,需要特别、特别注意 tar zxvf kibana-5.1.2.tgz cd kibana/ vim values.yaml # 更改其中 Elasticsearch 访问地址 # 更改 Service 中的 ClusterIP 为 NodePort elasticsearch: hosts: - es-elasticsearch-coordinating-only port: 9200 service: port: 80 type: NodePort volumePermissions: enabled: false helm install . --name kia --namespace=efk -f values.yaml

​完成后查看效果:

187.png

通过暴露的端口号,进行 WEB 访问:

188.png

创建一下索引序列:

189.png

我们来以时间为例,创建索引:

190.png

通过时间序列分片:

191.png

分片成功:

192.png

查看我们收集的日志信息:

193.png

需要 登录 才可以提问哦