日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

Docker Compose一鍵ELK部署的方法實現

瀏覽:167日期:2024-11-05 17:59:02
安裝

  Filebeat 已經完全替代了 Logstash-Forwarder 成為新一代的日志采集器,因為它更加輕量、安全。基于 Filebeat + ELK 的部署方案架構圖如下: 

Docker Compose一鍵ELK部署的方法實現

  軟件版本:

服務 版本 說明 CentOS 7.6 Docker 18.09.5 Docker Compose 1.25.0 ELK 7.5.1 Filebeat 7.5.1

docker-compose 文件

version: '3'services: es-master: container_name: es-master hostname: es-master image: elasticsearch:7.5.1 restart: always ports: - 9200:9200 - 9300:9300 volumes: - ./elasticsearch/master/conf/es-master.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elasticsearch/master/data:/usr/share/elasticsearch/data - ./elasticsearch/master/logs:/usr/share/elasticsearch/logs environment: - 'ES_JAVA_OPTS=-Xms512m -Xmx512m' es-slave1: container_name: es-slave1 image: elasticsearch:7.5.1 restart: always ports: - 9201:9200 - 9301:9300 volumes: - ./elasticsearch/slave1/conf/es-slave1.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elasticsearch/slave1/data:/usr/share/elasticsearch/data - ./elasticsearch/slave1/logs:/usr/share/elasticsearch/logs environment: - 'ES_JAVA_OPTS=-Xms512m -Xmx512m' es-slave2: container_name: es-slave2 image: elasticsearch:7.5.1 restart: always ports: - 9202:9200 - 9302:9300 volumes: - ./elasticsearch/slave2/conf/es-slave2.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elasticsearch/slave2/data:/usr/share/elasticsearch/data - ./elasticsearch/slave2/logs:/usr/share/elasticsearch/logs environment: - 'ES_JAVA_OPTS=-Xms512m -Xmx512m' kibana: container_name: kibana hostname: kibana image: kibana:7.5.1 restart: always ports: - 5601:5601 volumes: - ./kibana/conf/kibana.yml:/usr/share/kibana/config/kibana.yml environment: - elasticsearch.hosts=http://es-master:9200 depends_on: - es-master - es-slave1 - es-slave2 # filebeat: # # 容器名稱 # container_name: filebeat # # 主機名稱 # hostname: filebeat # # 鏡像 # image: docker.elastic.co/beats/filebeat:7.5.1 # # 重啟機制 # restart: always # # 持久化掛載 # volumes: # - ./filebeat/conf/filebeat.yml:/usr/share/filebeat/filebeat.yml # # 映射到容器中[作為數據源] # - ./logs:/home/project/spring-boot-elasticsearch/logs # - ./filebeat/logs:/usr/share/filebeat/logs # - ./filebeat/data:/usr/share/filebeat/data # # 將指定容器連接到當前連接,可以設置別名,避免ip方式導致的容器重啟動態改變的無法連接情況 # links: # - logstash # # 依賴服務[可無] # depends_on: # - es-master # - es-slave1 # - es-slave2 logstash: container_name: logstash hostname: logstash image: logstash:7.5.1 command: logstash -f ./conf/logstash-filebeat.conf restart: always volumes: # 映射到容器中 - ./logstash/conf/logstash-filebeat.conf:/usr/share/logstash/conf/logstash-filebeat.conf - ./logstash/ssl:/usr/share/logstash/ssl environment: - elasticsearch.hosts=http://es-master:9200 # 解決logstash監控連接報錯 - xpack.monitoring.elasticsearch.hosts=http://es-master:9200 ports: - 5044:5044 depends_on: - es-master - es-slave1 - es-slave2

  這里把 Filebeat 給注釋掉了,打算在各個需要搜集日志的服務器上面單獨部署 Filebeat。

記得把 Elasticsearch 的 data 和 logs 設置 chmod 777

es-master.yml

# 集群名稱cluster.name: es-cluster# 節點名稱node.name: es-master# 是否可以成為master節點node.master: true# 是否允許該節點存儲數據,默認開啟node.data: false# 網絡綁定network.host: 0.0.0.0# 設置對外服務的http端口http.port: 9200# 設置節點間交互的tcp端口transport.port: 9300# 集群發現discovery.seed_hosts: - es-master - es-slave1 - es-slave2# 手動指定可以成為 mater 的所有節點的 name 或者 ip,這些配置將會在第一次選舉中進行計算cluster.initial_master_nodes: - es-master# 支持跨域訪問http.cors.enabled: truehttp.cors.allow-origin: '*'# 安全認證xpack.security.enabled: false#http.cors.allow-headers: 'Authorization'

es-slave1.yml

# 集群名稱cluster.name: es-cluster# 節點名稱node.name: es-slave1# 是否可以成為master節點node.master: true# 是否允許該節點存儲數據,默認開啟node.data: true# 網絡綁定network.host: 0.0.0.0# 設置對外服務的http端口http.port: 9201# 設置節點間交互的tcp端口#transport.port: 9301# 集群發現discovery.seed_hosts: - es-master - es-slave1 - es-slave2# 手動指定可以成為 mater 的所有節點的 name 或者 ip,這些配置將會在第一次選舉中進行計算cluster.initial_master_nodes: - es-master# 支持跨域訪問http.cors.enabled: truehttp.cors.allow-origin: '*'# 安全認證xpack.security.enabled: false#http.cors.allow-headers: 'Authorization'

es-slave2.yml

# 集群名稱cluster.name: es-cluster# 節點名稱node.name: es-slave2# 是否可以成為master節點node.master: true# 是否允許該節點存儲數據,默認開啟node.data: true# 網絡綁定network.host: 0.0.0.0# 設置對外服務的http端口http.port: 9202# 設置節點間交互的tcp端口#transport.port: 9302# 集群發現discovery.seed_hosts: - es-master - es-slave1 - es-slave2# 手動指定可以成為 mater 的所有節點的 name 或者 ip,這些配置將會在第一次選舉中進行計算cluster.initial_master_nodes: - es-master# 支持跨域訪問http.cors.enabled: truehttp.cors.allow-origin: '*'# 安全認證xpack.security.enabled: false#http.cors.allow-headers: 'Authorization'

logstash-filebeat.conf

input { # 來源beats beats { # 端口 port => '5044' ssl_certificate_authorities => ['/usr/share/logstash/ssl/ca.crt'] ssl_certificate => '/usr/share/logstash/ssl/server.crt' ssl_key => '/usr/share/logstash/ssl/server.key' ssl_verify_mode => 'force_peer' }}# 分析、過濾插件,可以多個filter { grok { match => { 'message' => '%{COMBINEDAPACHELOG}'} } geoip { source => 'clientip' }}output { # 選擇elasticsearch elasticsearch { hosts => ['http://es-master:9200'] index => '%{[fields][service]}-%{[@metadata][version]}-%{+YYYY.MM.dd}' }}

filebeat.yml

filebeat.inputs: - type: log enabled: true paths: # 當前目錄下的所有.log文件 - /root/tmp/logs/*.log fields: service: 'our31-java' multiline.pattern: ^[ multiline.negate: true multiline.match: after - type: log enabled: true paths: # 當前目錄下的所有.log文件 - /root/tmp/log/*.log fields: service: 'our31-nginx'filebeat.config.modules: path: ${path.config}/modules.d/*.yml reload.enabled: false# setup.template.settings:# index.number_of_shards: 1# setup.dashboards.enabled: false# setup.kibana:# host: 'http://localhost:5601'# 不直接傳輸至ES#output.elasticsearch:# hosts: ['http://es-master:9200']# index: 'filebeat-%{[beat.version]}-%{+yyyy.MM.dd}'setup.ilm.enabled: falseoutput.logstash: hosts: ['logstash.server.com:5044'] # Optional SSL. By default is off. # List of root certificates for HTTPS server verifications ssl.certificate_authorities: './ssl/ca.crt' # Certificate for SSL client authentication ssl.certificate: './ssl/client.crt' # Client Certificate Key ssl.key: './ssl/client.key'# processors:# - add_host_metadata: ~# - add_cloud_metadata: ~

注意

生成證書,配置 SSL,讓 Filebeat 與 Logstash 之間建立 SSL。

#生成ca私鑰openssl genrsa 2048 > ca.key #使用ca私鑰建立ca證書openssl req -new -x509 -nodes -key ca.key -subj /CN=elkCA CA/OU=Development group/O=HomeIT SIA/DC=elk/DC=com > ca.crt #生成服務器csr證書請求文件openssl req -newkey rsa:2048 -nodes -keyout server.key -subj /CN=logstash.server.com/OU=Development group/O=Home SIA/DC=elk/DC=com > server.csr #使用ca證書與私鑰簽發服務器證書openssl x509 -req -in server.csr -CA ca.crt -CAkey ca.key -set_serial 01 > server.crt #生成客戶端csr證書請求文件openssl req -newkey rsa:2048 -nodes -keyout client.key -subj /CN=filebeat.client.com/OU=Development group/O=Home SIA/DC=elk/DC=com > client.csr #使用ca證書與私鑰簽發客戶端證書openssl x509 -req -in client.csr -CA ca.crt -CAkey ca.key -set_serial 01 > client.crt

  證書記得放到對應的文件夾中。

Filebeat 中 output.logstash.hosts 配置的域名要與證書相符。

根據不同服務器、不同服務、不同日期動態生成索引

Docker Compose一鍵ELK部署的方法實現

  上面的這張圖片中,加上了一些自定義屬性,這些屬性會傳遞到 Logstash 中,Logstash 會拿到這些屬性動態的向 Elasticsearch 中創建索引,如下圖:

Docker Compose一鍵ELK部署的方法實現

詳細介紹看官方文檔,metadata,動態索引生成。

  這里本來想使用 indices 來動態生成索引,但是根據官方配置,并沒有成功,哪位兄弟知道可以告知下為什么。

利用 Nginx Http Basic Authorization 讓 Kibana 需要登錄

  先使用工具 htpasswd 生成用戶信息

$ yum -y install httpd-tools

  創建新密碼文件

Docker Compose一鍵ELK部署的方法實現

  追加用戶信息:

Docker Compose一鍵ELK部署的方法實現

  最后配置好 Nginx 即可:

server { ...... auth_basic 'Kibana Auth'; auth_basic_user_file /usr/local/nginx/pwd/kibana/passwd; ......}

單獨啟動 Filebeat 的方式

$ nohup ./filebeat 2>&1 &啟動 Docker Compose

  在 docker-compose.yml 所在目錄執行:

$ docker-compose up --build -d

到此這篇關于Docker Compose一鍵ELK部署的方法實現的文章就介紹到這了,更多相關Docker Compose ELK部署內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Docker
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
石原莉奈在线亚洲二区| 国产一区白浆| 久久尤物视频| 欧美日韩国产欧| 国产一区二区三区自拍| 国产精品日本| 1024精品久久久久久久久| 99视频精品全国免费| 天堂√中文最新版在线| 精品一区二区男人吃奶| 欧美激情 亚洲a∨综合| 久久精品人人| 日韩高清不卡| 99国产精品99久久久久久粉嫩| 亚洲高清影视| 中文一区一区三区免费在线观 | 欧美精品国产| 欧美天堂一区二区| 国产精品国产三级在线观看| 国产日韩视频| 欧美亚洲国产日韩| 99pao成人国产永久免费视频| 嫩草伊人久久精品少妇av杨幂| 日韩视频中文| 一区二区精品伦理...| 国产精品videossex| 黄毛片在线观看| 国产欧美成人| 久久免费大视频| 亚洲福利久久| 久久要要av| 婷婷综合六月| 日韩国产欧美三级| 国产精品igao视频网网址不卡日韩 | 国产精品chinese| 精品欧美日韩精品| 国产精品精品| 亚洲高清影视| 国产伦精品一区二区三区视频 | 日韩成人亚洲| 老色鬼久久亚洲一区二区| 热久久免费视频| 日韩高清在线一区| 欧美日韩91| 毛片在线网站| 久久国产精品色av免费看| 国产精品一级| 999精品一区| 综合亚洲自拍| 精品国产黄a∨片高清在线| 久久精品青草| 欧美 日韩 国产一区二区在线视频 | 日本精品在线播放| 日本视频中文字幕一区二区三区| 91亚洲国产高清| 国产精品三p一区二区| 欧美激情视频一区二区三区在线播放| 日韩午夜电影| 91九色精品国产一区二区| 亚洲少妇在线| 欧美中文日韩| 久久激情综合网| 蜜臀久久久99精品久久久久久| 亚洲精品系列| 久久国际精品| 日本在线不卡视频| 国产福利资源一区| 国产毛片久久久| 精品视频在线观看网站| 不卡在线一区| 狠狠久久伊人| 日本在线不卡视频一二三区| 午夜欧美理论片| 精品国产99| 日本久久精品| 亚洲精品91| 久久久久99| 国产精品v亚洲精品v日韩精品| 国产粉嫩在线观看| 欧美aa一级| 99日韩精品| 91青青国产在线观看精品| 一区二区自拍| 国产精品久久久久久av公交车| 久久精品99久久久| 日韩成人免费| 日韩午夜免费| 日韩一区二区三区免费视频| 免费欧美在线视频| 亚洲成av人片一区二区密柚| 日韩精品一区二区三区免费视频 | 国产综合色区在线观看| 亚洲欧洲国产精品一区| 欧美特黄一级大片| 黄色日韩精品| 久久精品毛片| 欧美久久久网站| 一区二区国产在线观看| 亚洲一区二区毛片| 99视频精品| 亚洲精品中文字幕99999| 日本欧美不卡| 国产自产自拍视频在线观看| 国产精品国产一区| 婷婷综合社区| 蜜臀久久久99精品久久久久久| 国产乱码精品一区二区三区亚洲人| 日本精品在线中文字幕| 亚洲性色av| 91精品推荐| 日韩 欧美一区二区三区| 国产伦一区二区三区| 青草国产精品| 日韩影片在线观看| 快she精品国产999| 国产调教精品| 国产精品色婷婷在线观看| 91成人在线精品视频| 日本中文字幕视频一区| 日韩高清在线不卡| 精品99久久| 欧美aa一级| 日本精品影院| 玖玖玖国产精品| 麻豆精品视频在线观看| 深夜福利视频一区二区| 免费高潮视频95在线观看网站| 在线成人动漫av| 日韩午夜精品| 国产农村妇女精品一区二区| 日韩国产欧美在线播放| 国产欧美在线| 精品国产免费人成网站| 免费欧美日韩| 亚洲精品乱码日韩| 久久久成人网| 久久免费黄色| 免费黄网站欧美| 国产在线视频欧美一区| 久久久亚洲欧洲日产| 久久免费国产| 久久人人97超碰国产公开结果| 亚洲在线观看| 免费一区二区三区在线视频| 麻豆精品蜜桃| 精品一区二区三区视频在线播放 | 日韩毛片网站| 国产欧美高清| 久久国产直播| 亚洲1区在线观看| 国产在线看片免费视频在线观看| 国产精品99一区二区三区| 国产一级成人av| 国产精品99精品一区二区三区∴| 国产精品sm| 日韩精品一级中文字幕精品视频免费观看| 97人人精品| 亚洲免费资源| 精品免费av在线| 香蕉久久一区| 亚洲一区二区成人| 午夜一区在线| 久久中文亚洲字幕| 国产精品原创| 日本电影久久久| 国产一区白浆| 日韩精品一级| 麻豆国产精品一区二区三区| 岛国av在线网站| 精品日韩一区| а√在线中文在线新版| 国产精品久久久久久久久久妞妞 | 日韩av二区| 日韩毛片视频| 高清一区二区| 91日韩免费| 伊人成人在线视频| 国产一区91| 国产精品亲子伦av一区二区三区| 日本在线不卡视频| 国产精品久久乐| 国产+成+人+亚洲欧洲在线| 亚洲国产一区二区三区在线播放| 99pao成人国产永久免费视频 | 伊人久久婷婷| 精品中文在线| 不卡一区综合视频| 欧美日韩精品一本二本三本| 亚洲在线成人| 国产高清久久| 日韩国产一区| 亚洲激情另类| 亚洲精品自拍| 黄色在线网站噜噜噜| 久久中文视频| 国产调教一区二区三区| 日韩av自拍| 一区二区三区四区日韩| 国产一区二区视频在线看| 国产探花在线精品一区二区|