博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Filebeat Config 参数详解:
阅读量:5326 次
发布时间:2019-06-14

本文共 8952 字,大约阅读时间需要 29 分钟。

Filebeat Configuration Example 

 

############### Filebeat #############

filebeat:

  # List of prospectors to fetch data.

  prospectors:

    -

      # paths指定要监控的日志

      paths:

        - /var/log/*.log

 

      #指定被监控的文件的编码类型使用plain和utf-8都是可以处理中文日志的。

      # Some sample encodings:

      #   plain, utf-8, utf-16be-bom, utf-16be, utf-16le, big5, gb18030, gbk,

      #    hz-gb-2312, euc-kr, euc-jp, iso-2022-jp, shift-jis, ...

      #encoding: plain

 

      #指定文件的输入类型log(默认)或者stdin。

      input_type: log

 

      # 在输入中排除符合正则表达式列表的那些行

      # exclude_lines: ["^DBG"]

 

      # 包含输入中符合正则表达式列表的那些行默认包含所有行include_lines执行完毕之后会执行exclude_lines。

      # include_lines: ["^ERR", "^WARN"]

 

      # 忽略掉符合正则表达式列表的文件默认为每一个符合paths定义的文件都创建一个harvester。

      # exclude_files: [".gz$"]

 

      # 向输出的每一条日志添加额外的信息比如“level:debug”方便后续对日志进行分组统计。默认情况下会在输出信息的fields子目录下以指定的新增fields建立子目录例如fields.level。

      #fields:

      #  level: debug

      #  review: 1

 

      # 如果该选项设置为true则新增fields成为顶级目录而不是将其放在fields目录下。自定义的field会覆盖filebeat默认的field。

      #fields_under_root: false

 

      # 可以指定Filebeat忽略指定时间段以外修改的日志内容比如2h两个小时或者5m(5分钟)。

      #ignore_older: 0

 

      # 如果一个文件在某个时间段内没有发生过更新则关闭监控的文件handle。默认1h,change只会在下一次scan才会被发现

      #close_older: 1h

 

      # i设定Elasticsearch输出时的document的type字段也可以用来给日志进行分类。Default: log

      #document_type: log

 

      # Filebeat以多快的频率去prospector指定的目录下面检测文件更新比如是否有新增文件如果设置为0s则Filebeat会尽可能快地感知更新占用的CPU会变高。默认是10s。

      #scan_frequency: 10s

 

      # 每个harvester监控文件时使用的buffer的大小。

      #harvester_buffer_size: 16384

 

      # 日志文件中增加一行算一个日志事件max_bytes限制在一次日志事件中最多上传的字节数多出的字节会被丢弃。The default is 10MB.

      #max_bytes: 10485760

 

      # 适用于日志中每一条日志占据多行的情况比如各种语言的报错信息调用栈。这个配置的下面包含如下配置

      #multiline:

 

        # The regexp Pattern that has to be matched. The example pattern matches all lines starting with [

        #pattern: ^\[

 

        # Defines if the pattern set under pattern should be negated or not. Default is false.

        #negate: false

 

        # Match can be set to "after" or "before". It is used to define if lines should be append to a pattern

        # that was (not) matched before or after or as long as a pattern is not matched based on negate.

        # Note: After is the equivalent to previous and before is the equivalent to to next in Logstash

        #match: after

 

        # The maximum number of lines that are combined to one event.

        # In case there are more the max_lines the additional lines are discarded.

        # Default is 500

        #max_lines: 500

 

        # After the defined timeout, an multiline event is sent even if no new pattern was found to start a new event

        # Default is 5s.

        #timeout: 5s

 

      # 如果设置为trueFilebeat从文件尾开始监控文件新增内容把新增的每一行文件作为一个事件依次发送而不是从文件开始处重新发送所有内容。

      #tail_files: false

 

      # Filebeat检测到某个文件到了EOF之后每次等待多久再去检测文件是否有更新默认为1s。

      #backoff: 1s

 

      # Filebeat检测到某个文件到了EOF之后等待检测文件更新的最大时间默认是10秒。

      #max_backoff: 10s

 

      # 定义到达max_backoff的速度默认因子是2到达max_backoff后变成每次等待max_backoff那么长的时间才backoff一次直到文件有更新才会重置为backoff。

      #backoff_factor: 2

 

      # 这个选项关闭一个文件,当文件名称的变化。#该配置选项建议只在windows。

      #force_close_files: false

 

    # Additional prospector

    #-

      # Configuration to use stdin input

      #input_type: stdin

 

  # spooler的大小spooler中的事件数量超过这个阈值的时候会清空发送出去不论是否到达超时时间。

  #spool_size: 2048

  # 是否采用异步发送模式(实验!)

  #publish_async: false

 

  # spooler的超时时间如果到了超时时间spooler也会清空发送出去不论是否到达容量的阈值。

  #idle_timeout: 5s

 

  # 记录filebeat处理日志文件的位置的文件

  registry_file: /var/lib/filebeat/registry

 

  # 如果要在本配置文件中引入其他位置的配置文件可以写在这里需要写完整路径但是只处理prospector的部分。

  #config_dir:

 

 

############################# Output ##########################################

 

# 输出到数据配置.单个实例数据可以输出到elasticsearch或者logstash选择其中一种注释掉另外一组输出配置。

output:

 

  ### 输出数据到Elasticsearch

  elasticsearch:

    # IPv6 addresses should always be defined as: https://[2001:db8::1]:9200

    hosts: ["localhost:9200"]

 

    # 输出认证.

    #protocol: "https"

    #username: "admin"

    #password: "s3cr3t"

 

    # 启动进程数.

    #worker: 1

 

    # 输出数据到指定index default is "filebeat"  可以使用变量[filebeat-]YYYY.MM.DD keys.

    #index: "filebeat"

 

    # 一个模板用于设置在Elasticsearch映射默认模板加载是禁用的,没有加载模板这些设置可以调整或者覆盖现有的加载自己的模板

    #template:

 

      # Template name. default is filebeat.

      #name: "filebeat"

 

      # Path to template file

      #path: "filebeat.template.json"

 

      # Overwrite existing template

      #overwrite: false

 

    # Optional HTTP Path

    #path: "/elasticsearch"

 

    # Proxy server url

    #proxy_url: http://proxy:3128

 

    # 发送重试的次数取决于max_retries的设置默认为3

    #max_retries: 3

 

    # 单个elasticsearch批量API索引请求的最大事件数。默认是50。

    #bulk_max_size: 50

 

    # elasticsearch请求超时事件。默认90秒.

    #timeout: 90

 

    # 新事件两个批量API索引请求之间需要等待的秒数。如果bulk_max_size在该值之前到达额外的批量索引请求生效。

    #flush_interval: 1

 

    # elasticsearch是否保持拓扑。默认false。该值只支持Packetbeat。

    #save_topology: false

 

    # elasticsearch保存拓扑信息的有效时间。默认15秒。

    #topology_expire: 15

 

    # 配置TLS参数选项如证书颁发机构等用于基于https的连接。如果tls丢失主机的CAs用于https连接elasticsearch。

    #tls:

      # List of root certificates for HTTPS server verifications

      #certificate_authorities: ["/etc/pki/root/ca.pem"]

 

      # Certificate for TLS client authentication

      #certificate: "/etc/pki/client/cert.pem"

 

      # Client Certificate Key

      #certificate_key: "/etc/pki/client/cert.key"

 

      # Controls whether the client verifies server certificates and host name.

      # If insecure is set to true, all server host names and certificates will be

      # accepted. In this mode TLS based connections are susceptible to

      # man-in-the-middle attacks. Use only for testing.

      #insecure: true

 

      # Configure cipher suites to be used for TLS connections

      #cipher_suites: []

 

      # Configure curve types for ECDHE based cipher suites

      #curve_types: []

 

      # Configure minimum TLS version allowed for connection to logstash

      #min_version: 1.0

 

      # Configure maximum TLS version allowed for connection to logstash

      #max_version: 1.2

 

 

  ### 发送数据到logstash 单个实例数据可以输出到elasticsearch或者logstash选择其中一种注释掉另外一组输出配置。

  #logstash:

    # Logstash 主机地址

    #hosts: ["localhost:5044"]

 

    # 配置每个主机发布事件的worker数量。在负载均衡模式下最好启用。

    #worker: 1

 

    # #发送数据压缩级别

    #compression_level: 3

 

    # 如果设置为TRUE和配置了多台logstash主机输出插件将负载均衡的发布事件到所有logstash主机。

    #如果设置为false输出插件发送所有事件到随机的一台主机上如果选择的不可达将切换到另一台主机。默认是false。

    #loadbalance: true

 

    # 输出数据到指定index default is "filebeat"  可以使用变量[filebeat-]YYYY.MM.DD keys.

    #index: filebeat

 

    # Optional TLS. By default is off.

    #配置TLS参数选项如证书颁发机构等用于基于https的连接。如果tls丢失主机的CAs用于https连接elasticsearch。

    #tls:

      # List of root certificates for HTTPS server verifications

      #certificate_authorities: ["/etc/pki/root/ca.pem"]

 

      # Certificate for TLS client authentication

      #certificate: "/etc/pki/client/cert.pem"

 

      # Client Certificate Key

      #certificate_key: "/etc/pki/client/cert.key"

 

      # Controls whether the client verifies server certificates and host name.

      # If insecure is set to true, all server host names and certificates will be

      # accepted. In this mode TLS based connections are susceptible to

      # man-in-the-middle attacks. Use only for testing.

      #insecure: true

 

      # Configure cipher suites to be used for TLS connections

      #cipher_suites: []

 

      # Configure curve types for ECDHE based cipher suites

      #curve_types: []

 

 

  ### 文件输出将事务转存到一个文件每个事务是一个JSON格式。主要用于测试。也可以用作logstash输入。

  #file:

    # 指定文件保存的路径。

    #path: "/tmp/filebeat"

 

    # 文件名。默认是 Beat 名称。上面配置将生成 packetbeat, packetbeat.1, packetbeat.2 等文件。

    #filename: filebeat

 

    # 定义每个文件最大大小。当大小到达该值文件将轮滚。默认值是1000 KB

    #rotate_every_kb: 10000

 

    # 保留文件最大数量。文件数量到达该值将删除最旧的文件。默认是7一星期。

    #number_of_files: 7

 

 

  ### Console output 标准输出JSON 格式。

  # console:

    #如果设置为TRUE事件将很友好的格式化标准输出。默认false。

    #pretty: false

 

 

############################# Shipper #########################################

 

shipper:

  # #日志发送者信息标示

  # 如果没设置以hostname名自居。该名字包含在每个发布事务的shipper字段。可以以该名字对单个beat发送的所有事务分组。

  #name:

 

  # beat标签列表包含在每个发布事务的tags字段。标签可用很容易的按照不同的逻辑分组服务器。

  #例如一个web集群服务器可以对beat添加上webservers标签然后在kibana的visualisation界面以该标签过滤和查询整组服务器。

  #tags: ["service-X", "web-tier"]

 

  # 如果启用了ignore_outgoing选项beat将忽略从运行beat服务器上所有事务。

  #ignore_outgoing: true

 

  # 拓扑图刷新的间隔。也就是设置每个beat向拓扑图发布其IP地址的频率。默认是10秒。

  #refresh_topology_freq: 10

 

  # 拓扑的过期时间。在beat停止发布其IP地址时非常有用。当过期后IP地址将自动的从拓扑图中删除。默认是15秒。

  #topology_expire: 15

 

  # Internal queue size for single events in processing pipeline

  #queue_size: 1000

 

  # GeoIP数据库的搜索路径。beat找到GeoIP数据库后加载然后对每个事务输出client的GeoIP位置目前只有Packetbeat使用该选项。

  #geoip:

    #paths:

    #  - "/usr/share/GeoIP/GeoLiteCity.dat"

    #  - "/usr/local/var/GeoIP/GeoLiteCity.dat"

 

 

############################# Logging #########################################

 

 

# 配置beats日志。日志可以写入到syslog也可以是轮滚日志文件。默认是syslog。

logging:

 

  # 如果启用发送所有日志到系统日志。

  #to_syslog: true

 

  # 日志发送到轮滚文件。

  #to_files: false

 

  # 

  files:

    # 日志文件目录。

    #path: /var/log/mybeat

 

    # 日志文件名称

    #name: mybeat

 

    # 日志文件的最大大小。默认 10485760 (10 MB)。

    rotateeverybytes: 10485760 # = 10MB

 

    # 保留日志周期。 默认 7。值范围为2 到 1024。

    #keepfiles: 7

 

  # Enable debug output for selected components. To enable all selectors use ["*"]

  # Other available selectors are beat, publish, service

  # Multiple selectors can be chained.

  #selectors: [ ]

 

  # 日志级别。debug, info, warning, error 或 critical。如果使用debug但没有配置selectors* selectors将被使用。默认error。

  #level: error

 

 

 

 

filebeat.prospectors:

- input_type: log

  paths:

    - /log/channelserver.log

    #- /home/wang/data/filebeat-5.0.2-linux-x86_64/test.log

  encoding: gbk

  symlinks: true

  include_lines: ['

.?

','

.?

']

 

  document_type: channelserver

  fields_under_root: true

  fields:

    host: 192.168.10.155

 

processors:

- drop_fields:

    #fields: ["beat.hostname", "beat.name", "beat.version", "input_type", "beat"]

    fields: ["input_type", "beat", "offset", "source"]

 

output.redis:

  enabled: true

  hosts: ["192.168.10.188"]

  port: 6379

  datatype: list

  key: "filebeat"

  db: 0

 

output.file:

  enabled: true

  path: "/tmp/filebeat"

 

output.console:

  enabled: false

 

转载于:https://www.cnblogs.com/chenpengzi/p/7975757.html

你可能感兴趣的文章
IOS UI TabBar标签栏的使用
查看>>
深入理解Thread.sleep的含义
查看>>
Android开发遇到的问题
查看>>
框架的配置文件的映射机制
查看>>
ambari 2.7 下安装httpfs
查看>>
linux:nohup 不生成 nohup.out的方法
查看>>
[na]pc加入域认证细节
查看>>
Harris角点检测原理分析
查看>>
【学习笔记】bootstrap之CSS组件
查看>>
新建samba配置步骤
查看>>
指针数组和数组指针的区别
查看>>
【转】基于nginx + lua实现的反向代理动态更新
查看>>
Linux服务器部署javaweb项目,从环境配置,到最终系统运行
查看>>
可穿戴设备的发展与挑战
查看>>
在线旅游网站发展趋势分析
查看>>
亚马逊-不一样的电商公司
查看>>
设备相关整理
查看>>
纯html网页重定向与跳转
查看>>
iOS打包后收不到推送信息
查看>>
git 设置和取消代理
查看>>