linux cpu占用率如何看
266
2022-11-09
ELK日志服务器搭建
ELK
ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。
Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。
Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。
Filebeat隶属于Beats。目前Beats包含四种工具:
Packetbeat(搜集网络流量数据) Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据) Filebeat(搜集文件数据) Winlogbeat(搜集 Windows 事件日志数据)
部署安装ELK服务器
环境准备 (需要java环境)
ELK-1 | 192.168.1.10 |
---|---|
ELk-2 | 192.168.1.20 |
apache | 192.168.1.30 |
修改主机名称
[root@localhost ~]# hostnamectl set-hostname elk-1 [root@localhost ~]# bash [root@elk-1 ~]# [root@localhost ~]# hostnamectl set-hostname elk-2 [root@localhost ~]# bash [root@elk-2 ~]#
在 ELK-1 2 中 /etc/hosts 文件中添加域名解析
[root@elk-1 ~]# vim /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.1.10 elk-1 192.168.1.20 elk-2
上传elasticsearch文件解压安装(ELK—1 2)
[root@elk-1 ~]# ls anaconda-ks.cfg initial-setup-ks.cfg 模板 图片 下载 桌面 elasticsearch-7.9.2-x86_64(新).rpm 公共 视频 文档 音乐 [root@elk-1 ~]# rpm -ivh elasticsearch-7.9.2-x86_64\(新\).rpm 警告:elasticsearch-7.9.2-x86_64(新).rpm: 头V4 RSA/SHA512 Signature, 密钥 ID d88e42b4: NOKEY 准备中... ################################# [100%] Creating elasticsearch group... OK Creating elasticsearch user... OK 正在升级/安装... 1:elasticsearch-0:7.9.2-1 ################################# [100%] ### NOT starting on installation, please execute the following statements to configure elasticsearch service to start automatically using systemd sudo systemctl daemon-reload sudo systemctl enable elasticsearch.service ### You can start elasticsearch service by executing sudo systemctl start elasticsearch.service Created elasticsearch keystore in /etc/elasticsearch/elasticsearch.keystore [root@elk-1 ~]# systemctl daemon-reload [root@elk-1 ~]# sudo systemctl enable elasticsearch.service Created symlink from /etc/systemd/system/multi-user.target.wants/elasticsearch.service to /usr/lib/systemd/system/elasticsearch.service.
更改配置文件(ELK-1 2)
[root@elk-1 ~]# vim /etc/elasticsearch/elasticsearch.yml 17:cluster.name: my-elk-cluster 集群名字 23:node.name: elk-1 节点名称 33:path.data: /data/elk_data 数据存放路径 37:path.logs: /var/log/elasticsearch/ 日志存放路径 43:bootstrap.memory_lock: false 不在启动的时候锁定内存 55:network.host: 0.0.0.0 提供服务绑定的 IP 地址,0.0.0.0 代表所有地址 59:9200 侦听端口为 9200 68:discovery.seed_hosts: ["elk-1", "elk-2"] 集群中的主机 72:cluster.initial_master_nodes: ["elk-1"] 主节点 [root@elk-2 ~]# vim /etc/elasticsearch/elasticsearch.yml 17:cluster.name: my-elk-cluster 集群名字 23:node.name: elk-2 节点名称 33:path.data: /data/elk_data 数据存放路径 37:path.logs: /var/log/elasticsearch/ 日志存放路径 43:bootstrap.memory_lock: false 不在启动的时候锁定内存 55:network.host: 0.0.0.0 提供服务绑定的 IP 地址,0.0.0.0 代表所有地址 59:9200 侦听端口为 9200 68:discovery.seed_hosts: ["elk-1", "elk-2"] 集群中的主机 72:cluster.initial_master_nodes: ["elk-1"] 主节点
创建文件所需要的目录(ELK-1 2)
[root@elk-2 ~]# mkdir -p /data/elk_data [root@elk-2 ~]# mkdir -p /var/log/elasticsearch/ [root@elk-2 ~]# chown elasticsearch:elasticsearch /data/elk_data/ [root@elk-2 ~]# chown elasticsearch:elasticsearch /var/log/elasticsearch/ [root@elk-2 ~]#
开启elk(ELK-1 2)
[root@elk-1 ~]# systemctl start elasticsearch.service [root@elk-1 ~]# netstat -anpt | grep 9200 tcp6 0 0 :::9200 :::* LISTEN 43577/java
查看健康状态(查看集群的健康情况,可以看到 status 为 green 绿色)
上传node安装包安装(ELK-1)
[root@elk-1 ~]# ls anaconda-ks.cfg initial-setup-ks.cfg node-v12.13.0-linux-x64.tar 模板 图片 下载 桌面 elasticsearch-7.9.2-x86_64(新).rpm node-v12.13.0-linux-x64 公共 视频 文档 音乐 [root@elk-1 ~]# tar -vxf node-v12.13.0-linux-x64.tar [root@elk-1 ~]# mv node-v12.13.0-linux-x64 /usr/local/nodesjs [root@elk-1 ~]# vim /etc/profile VERSION=v10.15.0 DISTRO=linux-x64 export PATH=/usr/local/nodesjs/bin:$PATH [root@elk-1 ~]# source /etc/profile
安装es-head,上传安装包:es-head.tar.gz解压安装(ELK-1)
# 安装phantomjs [root@elk-1 ~]# tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2 [root@elk-1 ~]# cd phantomjs-2.1.1-linux-x86_64/bin/ [root@elk-1 bin]# cp phantomjs /usr/local/bin/ [root@elk-1 ~]# git clone git://github.com/mobz/elasticsearch-head.git [root@elk-1 ~]# cd elasticsearch-head/ [root@elk-1 elasticsearch-head]# npm install [root@elk-1 elasticsearch-head]# npm run start & [root@elk-1 elasticsearch-head]# netstat -anpt | grep 9100
修改 elasticsearch 主配置文件,添加如下内容,然后重启 elasticsearch 服务(ELK-1)
[root@elk-1 ~]# vim /etc/elasticsearch/elasticsearch.yml true 开启跨域访问支持,默认为 false "*" 跨域访问允许的域名地址 [root@elk-1 ~]# systemctl restart elasticsearch
通过浏览器进行访问:index-demo,类型为 test(ELK-1)
[root@elk-1 ~]# curl -XPUT '192.168.1.10:9200/index-demo/test/1?pretty&pretty' -H 'Content-Type: application/json' -d '{ "user": "zhangsan","mesg":"hello world" }' # 回车 { "_index" : "index-demo", "_type" : "test", "_id" : "1", "_version" : 1, "result" : "created", "_shards" : { "total" : 2, "successful" : 1, "failed" : 0 }, "_seq_no" : 0, "_primary_term" : 1 } [root@elk-1 ~]#
刷新浏览器,可以看到创建成功的索引
安装 logstash 并做一些日志搜集输出到 elasticsearch 中(ELK-1)
[root@elk-1 ~]# rpm -ivh logstash-7.9.2.rpm 警告:logstash-7.9.2.rpm: 头V4 RSA/SHA512 Signature, 密钥 ID d88e42b4: NOKEY 准备中... ################################# [100%] 正在升级/安装... 1:logstash-1:7.9.2-1 ################################# [100%] Using provided startup.options file: /etc/logstash/startup.options /usr/share/logstash/vendor/bundle/jruby/2.5.0/gems/pleaserun-0.0.31/lib/pleaserun/platform/base.rb:112: warning: constant ::Fixnum is deprecated Successfully created system startup script for Logstash [root@elk-1 ~]# systemctl start logstash.service [root@elk-1 ~]# ln -s /usr/share/logstash/bin/logstash /usr/local/bin/
logstash 基本使用
Logstash 使用管道方式进行日志的搜集处理和输出。有点类似 linux 系统的管道命令 xxx | ccc | ddd,xxx 执行完了会执行 ccc,然后执行 ddd。 在 logstash 中,包括了三个阶段: 输入 input --> 处理 filter(不是必须的) --> 输出 output 每个阶段都由很多的插件配合工作,比如 file、elasticsearch、redis 等等。 每个阶段也可以指定多种方式,比如输出既可以输出到 elasticsearch 中,也可以指定到 stdout在控制台打印。 由于这种插件式的组织方式,使得 logstash 变得易于扩展和定制。 logstash 命令行中常用的命令: -f:通过这个命令可以指定 Logstash 的配置文件,根据配置文件配置 logstash -e:后面跟着字符串,该字符串可以被当做 logstash 的配置(如果是“” 则默认使用 stdin 作为输入,stdout 作为输出) -t:测试配置文件是否正确,然后退出
启动一个 logstash,-e:在命令行执行;input 输入,stdin 标准输入,是一个插件;output 输出,stdout:标准输出
[root@elk-1 ~]# logstash -e 'input { stdin{} } output { stdout{} }' [INFO ] 2020-10-22 06:38:09.069 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9600} baidu.com #输入 { "@timestamp" => 2020-10-22T13:38:19.724Z, "host" => "elk-1", "@version" => "1", "message" => "baidu.combaidu.com" } sina.com.cn #输入 { "@timestamp" => 2020-10-22T13:38:30.823Z, "host" => "elk-1", "@version" => "1", "message" => "sina.com.cn" }
使用 rubydebug 显示详细输出,codec 为一种编解码器
[root@elk-1 ~]# logstash -e 'input { stdin{} } output { stdout{ codec =>rubydebug} }' 22:54:23.075 [Api Webserver] INFO logstash.agent - Successfully started Logstash API endpoint {:port=>9600} baidu.com 输入 { "@timestamp" => 2017-08-09T14:54:31.236Z, "@version" => "1", "host" => "elk-node1", "message" => "baidu.com" } sina.com.cn 输入 { "@timestamp" => 2017-08-09T14:54:39.412Z, "@version" => "1", "host" => "elk-node1", "message" => "sina.com.cn" }
使用 logstash 将信息写入到 elasticsearch 中
[root@elk-1 ~]# logstash -e 'input { stdin{} } output { elasticsearch { hosts=> ["192.168.1.10:9200"]} }' [INFO ] 2020-10-22 06:40:44.995 [Ruby-0-Thread-5: :1] elasticsearch - Installing ILM policy {"policy"=>{"phases"=>{"hot"=>{"actions"=>{"rollover"=>{"max_size"=>"50gb", "max_age"=>"30d"}}}}}} to _ilm/policy/logstash-policy baidu.com #输入 sina.com.cn google.com
在 elasticsearch 中查看 logstash 新加的索引
logstash 配置文件使用
logstash 配置文件基本上由三部分组成,input、output 以及用户需要才添加的 filter, 因此标准的配置文件格式如下: input {...} filter {...} output {...} 在每个部分中,也可以指定多个访问方式,例如我想要指定两个日志来源文件,则可以这样写: input { file { path =>"/var/log/messages" type =>"syslog"} file { path =>"/var/log/apache/access.log" type =>"apache"} } 下面是一个收集系统日志的配置文件例子,将其放到/etc/logstash/conf.d/目录中, logstash 启动的时候便会加载。注意要给 logstash 读取日志文件的权限
[root@elk-1 ~]# chmod o+r /var/log/messages [root@elk-1 ~]# ll /var/log/messages -rw----r--. 1 root root 746161 10月 22 06:55 /var/log/messages [root@elk-1 ~]# cd /etc/logstash/conf.d/ [root@elk-1 conf.d]# vim system.conf input { file { 从文件中读取 path => "/var/log/messages" 文件路径 type => "system" start_position => "beginning" 是否从头开始读取 } } output { elasticsearch { 输出到 elasticsearch 中 hosts => ["192.168.1.10:9200"] elasticsearch 主机地址和端口 index => "system-%{+YYYY.MM.dd}" 索引名称 } }
重启 logstash 服务
[root@elk-1 conf.d]# systemctl restart logstash
在浏览器中即可看到新加索引及其内容
安装Kibana(注意需要和elasticsearch,logstash同一版本)(ELK-1)
[root@elk-1 ~]# rpm -ivh kibana-5.5.3-x86_64.rpm 警告:kibana-5.5.3-x86_64.rpm: 头V4 RSA/SHA512 Signature, 密钥 ID d88e42b4: NOKEY 准备中... ################################# [100%] 正在升级/安装... 1:kibana-5.5.3-1 ################################# [100%] [root@elk-1 ~]# systemctl enable kibana.service Created symlink from /etc/systemd/system/multi-user.target.wants/kibana.service to /etc/systemd/system/kibana.service.
设置 kibana 的主配置文件/etc/kibana/kibana.yml
[root@elk-1 ~]# rpm -ivh kibana-7.9.2-x86_64.rpm server.port: 5601 kibana 打开的端口 server.host: "0.0.0.0" kibana 侦听的地址 elasticsearch.url: "和 elasticsearch 建立联系 kibana.index: ".kibana" 在 elasticsearch 中添加.kibana 索引 [root@elk-1 ~]# systemctl start kibana.service
使用浏览器访问 192.168.1.10:5601,第一次登录需要添加一个 elasticsearch 索引,我们添加前面的索引 system-*
可以看到按照”host”筛选后的结果
将 apache 服务器的日志添加到 elasticsearch 并通过 kibana 显示
[root@localhost ~]# yum -y install httpd [root@localhost ~]# systemctl stop firewalld [root@localhost ~]# systemctl start httpd [root@localhost ~]# curl 127.0.0.1 [root@localhost ~]# rpm -ivh logstash-7.9.2.rpm [root@localhost ~]# systemctl enable logstash.service Created symlink from /etc/systemd/system/multi-user.target.wants/logstash.service to /etc/systemd/system/logstash.service.
编写 logstash 配置文件 apache_log.conf 搜集 apache 日志并执行
[root@localhost ~]# cd /etc/logstash/conf.d/ [root@localhost conf.d]# vim http_log.conf input { file { path => "/etc/httpd/logs/access_log" type => "access" start_position => "beginning" } file { path => "/etc/httpd/logs/error_log" type => "error" start_position => "beginning" } } output { if [type] == "access" { elasticsearch { hosts => ["192.168.1.10:9200"] index => "apache_access-%{+YYYY.MM.dd}" } } if [type] == "error" { elasticsearch { hosts => ["192.168.1.10:9200"] index => "apache_error-%{+YYYY.MM.dd}" } } } [root@localhost conf.d]# /usr/share/logstash/bin/logstash -f http_log.conf
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~